News AMDs HD-6000-Serie ursprünglich in 32 nm gedacht

@Complication
Wenn du meinen Text noch einmal liest, dann wirst du feststellen, dass ich fast das selbe geschreiben habe wie du.

Einziger Untreschied:
-aktiver Adapter = Kosten
-Bildschirme mit DP = kosten
-Weiterleitung über DP mit DVI etc? -> glaub ich dir nicht, das sind Eingänge, der Montor sendet nicht

Zitat von dir:
"...Tesselletioneinheit eine Software Änderung? Nimm dir einen Fisch. "

Falsch, AMD hat Tessellation bei der 5800er Serie größtenteils über Software gelöst und einen Mini-Baustein für minimalstes Tesselationsleistung hinterlegt.

KainerM fragt zurecht, was genau an der 6800er geändert wurde.
 
TNM schrieb:
@drago & kasmopaya

Ich weiss ich wiederhole mich, aber ihr habt den Zusammenhang nicht verstanden, daher die Fehlinterpretation. Es gibt keine 32nm Fertigung, also .........


Das ist mir bewusst habe nur keine Lust immer an halben Roman zu schreiben um alles zu bedenken.
 
Hardware_Hoshi schrieb:
Einziger Untreschied:
-aktiver Adapter = Kosten
-Bildschirme mit DP = kosten
-Weiterleitung über DP mit DVI etc? -> glaub ich dir nicht, das sind Eingänge, der Montor sendet nicht
Du brauchst keinen aktiven Adapter - einen Monitor mit DP gibt es ab 150,- € - welche Mehrkosten hast du da denn? Die Weiterleitung geht natürlich nur bei Monitoren die sowohl DP Ein- und Ausgang haben. Nur das ist ein Szenario von vielen. Du wirfst aber alle in einen Topf und sagst da wären zusätzliche Kosten. Es ist natürlich ganz entsetzlich dass mehr Anschlußmöglichkeiten geboten werden als bei der Vorgänger Generation :rolleyes:

Maximale Mehrkosten entstehen wenn ein User einen aktiven Adapter kaufen muss wie diesen: Club 3D Adapter DisplayPort auf DVI-D (18+1) Aktiv, Single-Link - 35,- €
Und das auch nur wenn schon 3 Monitore vorhanden sind. Wer sich einen zusätzlichen Monitor kauft für Eyefinity, der kauft sich gleich einen mit DP - dieser 22" kostet 150,-€
http://www.heise.de/preisvergleich/a546667.html

Würde mich mal interessieren was du zu 3D von Nvidia sagst wo du 100,- € bezahlen musst für das 3D-Vision Kit und dann noch einen Monitor mit 120Hz.
Ergänzung ()

Hardware_Hoshi schrieb:
Zitat von dir:
"...Tesselletioneinheit eine Software Änderung? Nimm dir einen Fisch. "

Falsch, AMD hat Tessellation bei der 5800er Serie größtenteils über Software gelöst und einen Mini-Baustein für minimalstes Tesselationsleistung hinterlegt.
Ja klar :evillol:
Dafür würde ich gerne mal eine Quelle sehen wo du das her hast - ich bin wirklich gespannt wer so etwas ins Netz schreibt.
 
Trotzdem eine super Leistung auch wenn es noch 40nm sind.
 
KainerM schrieb:
.................
Und auch in Realleistung ausgedrückt hat sich bei der HD6000 nichts großartiges getan; die Chips wurden kleiner, dafür aber höher getaktet. Die Leistung pro Dollar ist gleich der der HD5770. Die Bildqualität ist stellenweise besser, stellenweise schlechter. Von der Tesselationsleistung merkt man derzeit noch nirgends was, darum muss man die - wie bei der GTX 480 - vorne außen lassen.
Der Nachteil all dieser Änderungen ist aber der, dass der Kunde das bekommt, wofür er bezahlt - und nur wenig mehr. Übertaktung wird mit der HD6000 völlig uninteressant - generell würde sowas erst ab 10-15% Mehrleistung Sinn machen. Und die sind auf HD6000 Karten nicht in sinnvollem Rahmen (sprich ohne Modifikationen) möglich. Die HD6850 wird ja sogar künstlich früh abgeriegelt, zumindest derzeit. ................

Nun Gut, aber für wen ist den Übertaktung auf einer Performance karte Gut ?

Die meisten Leute die ihr Grafikkarte übertakten wollen (Und ich nehme mal an das sind nicht allzu viele! Gibt es dazu schon eine Umfrage auf dem Board ? Nein ? Könnte das mal jemand machen?, ich nehme mal an das selbst von den CB Lesern höchstens 50% die Karte übertakten. Und es gibt ja bestimmt noch viel mehr weniger Technik vercierte Grafikkarten besitzer die gar nicht erst hier im Forum sind!) kaufen sich dann halt eine Cayman Grafikkarte, sofern sie es sich leisten können ;)

Das einzige was es gross zur Folge haben wirt, das es nicht so viele Modelle von anderen Herstellern geben wird die erhöhte Taktraten bieten, wie dies momentan bei der GTX460 der Fall ist.

Ich bin ja mal saumässig auf die Cayman gespannt. einerseits immernoch 40nm andererseits (hoffentlich) enorm verbesserter Chip und 4D shader. Meine ATi Radeon HD 3870X2 wird langsam alt, und es gibt immer mehr DX11 Titel. Allerdings wäre ein Erfolgreicher umstieg auf die 28nm Technologie sicher ein gewaltiger Performance Sprung.


Warum gibt es eigentlich keine Details zu den HD5970 ? Betraf die NDA bis zum 22. Oktober NUR die Barts chips? gibt es ein anderes für die Cayman ? Muss ja eigentlich! Ich halte es für schier unmöglich das in 4 Wochen (ca) die Caymans da sein wollen und niemand auch nur das kleinste bisschen Lust verspütz ein par Details zu verkünden.


mfg

Haldi
 
Complication schrieb:
Du brauchst keinen aktiven Adapter - einen Monitor mit DP gibt es ab 150,- € - welche Mehrkosten hast du da denn? Die Weiterleitung geht natürlich nur bei Monitoren die sowohl DP Ein- und Ausgang haben. Nur das ist ein Szenario von vielen. Du wirfst aber alle in einen Topf und sagst da wären zusätzliche Kosten. Es ist natürlich ganz entsetzlich dass mehr Anschlußmöglichkeiten geboten werden als bei der Vorgänger Generation :rolleyes:

Maximale Mehrkosten entstehen wenn ein User einen aktiven Adapter kaufen muss wie diesen: Club 3D Adapter DisplayPort auf DVI-D (18+1) Aktiv, Single-Link - 35,- €
Und das auch nur wenn schon 3 Monitore vorhanden sind. Wer sich einen zusätzlichen Monitor kauft für Eyefinity, der kauft sich gleich einen mit DP - dieser 22" kostet 150,-€
http://www.heise.de/preisvergleich/a546667.html

Das sind aber nur die "billigen" Versionen. Wenn du diese horizontal benutzt, wird das Bild seitlich gezerrt und du hast weniger Mehrwert (vorsicht, äußerst subjektiv :lol:). Ich spreche von den Pivot-Modellen, die je nach Hersteller und verbautem Display mal gerne das doppelte kosten können. So um 200-300€ Aufpreis sind da schon drin.

Spiel mal mit Eyefinity mit mindestens 3x hochkant (Pivot). Das ist ein gewaltiger Unterschied. einzige die Balken dazwischen stören.


Würde mich mal interessieren was du zu 3D von Nvidia sagst wo du 100,- € bezahlen musst für das 3D-Vision Kit und dann noch einen Monitor mit 120Hz.

Im Newspost #27 habe ich einen ellenlangen Kommentar abgegeben. Ich hab Nvidia ebenfalls "beiläufig" erwähnt, wollte es aber nicht ausweiten. Habe diese ständigen Fanboykriege so satt und wollte keinen neuen anzetteln.

Ergänzung ()

Ja klar :evillol:
Dafür würde ich gerne mal eine Quelle sehen wo du das her hast - ich bin wirklich gespannt wer so etwas ins Netz schreibt.

Es stand in diversen Tests der damaligen 5800ern. Ich hatte mich damals noch gewundert, warum der so winzig war. Deshalb ist es mir noch im Kopf geblieben. Aber es geht hier um die HD-6000er-Serie. Analysieren wir doch aktuell damit:

Beispiel:
BartsArchitectureDiagram.png


Siehst du wie klein der Tesselationsteil im Gegensatz zum restlichen Chip ist? Das ist ein Auschnitt aus Barts. Der winzig kleine Chipteil soll die Tessellation steuern. Die Leistung wird dann im per Softwarelösung z.B. in den Treibern oder Zusatzprogrammen gesteuert.

Das war übrigens ATi/AMDs Problem mit der 5800er, sie waren Hardwareseitig beschränkt. Nvidia hat keinen eigenen Tesselatorteil, da sie das irgendwie durch die Cuda-Cores jagen. Die Frage wäre was besser ist.

Ich stelle mir das schlimm vor, wenn diese Größenordnung noch in 32nm geshrinkt wäre. Hoffentlich übernimmt AMD diese Beschränkung nicht für die 6900er. Eigentlich muss ich mir darum keine Gedanken machen, da AMD den Chip ja angeblich wieder vergrößert. Dann wächst theoretisch auch der Tesselationspart = ergo bessere Tesselationsergebnisse.

@DvP
Danke für den hinweis. Preiskampf ist immer gut und ich habe es im Fazit meines langen Posts bereits erwähnt. Nur der Roman war schon zu lang und kürzen wollte ich dann auch nicht. Der Preis ist das einzige was wirklich für die 6800er überzeugen kann. Alles andere ist irgendwie ein Kompromiss.
 
Nunja, die Tesselationleistung wurde ja sehr stark verbessert.
Aber nur in Bereichen, wo das auch Sinn macht.
Extreme Tesselation ist uninteressant.
Siehe Hardwareluxx.
 
Complication schrieb:
Ergänzung ()

Ja klar :evillol:
Dafür würde ich gerne mal eine Quelle sehen wo du das her hast - ich bin wirklich gespannt wer so etwas ins Netz schreibt.

@Hardware_Hoshi:
Soweit ich weiß gelten Mutmaßungen noch nicht als Quelle...
 
Hardware_Hoshi schrieb:
Es stand in diversen Tests der damaligen 5800ern. Ich hatte mich damals noch gewundert, warum der so winzig war. Deshalb ist es mir noch im Kopf geblieben. Aber es geht hier um die HD-6000er-Serie. Analysieren wir doch aktuell damit:
Siehst du wie klein der Tesselationsteil im Gegensatz zum restlichen Chip ist? Das ist ein Auschnitt aus Barts. Der winzig kleine Chipteil soll die Tessellation steuern. Die Leistung wird dann im per Softwarelösung z.B. in den Treibern oder Zusatzprogrammen gesteuert.

Dass AMD Tesselation über Software realisiert hat oder zumindest zu einem "größeren" Teil, hab ich auch nirgends gelesen. Die Grafik von dir bringt uns leider gar nichts, da es eine schematische Darstellung darstellt, die keinem Maßstab entspricht.
Fixed function units sind darüber hinaus immer extrem klein und dennoch hocheffizient. Das war schon immer so. Guck dir mal die H264 Decoder in Smartphones an und was da an Power notwendig war, wenn keine dedizierte Einheit zur Verfügung stand. Da musste die CPU/GPU in einem PC schon einiges leisten...
 
Zuletzt bearbeitet:
DvP schrieb:
Dass AMD Tesselation über Software realisiert hat oder zumindest zu einem "größeren" Teil, hab ich auch nirgends gelesen. Die Grafik von dir bringt uns leider gar nichts, da es eine schematische Darstellung darstellt, die keinem Maßstab entspricht.
Fixed function units sind darüber hinaus immer extrem klein und dennoch hocheffizient. Das war schon immer so.

Ja und nein! Ich habe hoffentlich nicht "hauptsächlich" gesagt. Wenn doch, sorry - ich meinte größtenteils. Die Hardware ist natürlich wichtig, aber dürfte limitiertieren. Bis zu einem gewissen Maß müsste das ganz gut gehen, doch die Steuerung für Treiber und Programme sollte doch einen noch viel größeren und wichtigeren Aspekt ausmachen.

Zusammenspiel:
Wie immer macht das Zusammenspiel zwischen Betriebssystem (Treiber), Hardware und natürlich dem Spiel selbst den größten Faktor aus. Die Chipgrafik ist von der 6800er Reihe und zurzeit das einzige, dass ich in dem Thread ohne Offtopic nehmen wollte.

Kein Tesselation = kein Bedarf
Viel Tesselation = [Max Tessellation (Software)] - [Effzienz (Treiber/Hardware)]

Hocheffizient oder nicht wäre noch die Frage. Das kann keiner von uns genau sagen. Es sind halt spezialisierte Einheiten die nichts anders machen als sie sollen. Wer weiß, vielleicht gab es im Cypress genug dieser "nutzlosen" bzw. "ineffizienten" Einheiten und man hat diese einfach streichen können und in andere Stellen integriert.

Das heißt nicht, dass sie schlecht sind, sondern nur ersetzbar. Es könnte ein logischer Grund sein, wieso man Barts so schrumpfen konnte. Natürlich wäre das im 32nm etwas besser gekommen, da man zusätzlich mehr Einheiten für Performance hätte abstellen können. Wäre bestimmt der Tesselation oder FPS-Performance zu gute gekommen.

Guck dir mal die H264 Decoder in Smartphones an und was da an Power notwendig war, wenn keine dedizierte Einheit zur Verfügung stand. Da musste die CPU/GPU in einem PC schon einiges leisten...

Ich bin mir nicht sicher, ob man Smartphones damit vergleichen kann, da sie eine ganz andere Grafikklasse sind. Das grafisch Beste ist zurzeit der Tegra, der aber gerade erst eingeführt wird.
Alles andere hat für jede Funktion doch meist eigene Chips. H.264 ist ein Beispiel dafür, richtig. Jedoch musst du zugeben, die beste Hardware taugt ohne gut umgesetzte Softwarelösung nicht die Bohne.

AMD hat genau hier nachgebessert. In der Gen7-Tesselation wird stehs von Tesselationsverbesserungen gesprochen. Natürlich in Verbund mit leicht verbesserter technischer Lösung im Chip. Das macht Sinn!

Je mehr Szenarien sie in die Chip-Logik prügeln, desto weniger muss dieser die gleichen Vorgänge wieder und wieder neu berechnen. Sobald der Logarithmus gut genug ist, steigt die Effizienz haushoch und kostet weniger Performance bei gleicher oder ähnlicher Hardware.
 
@Hardware_Hoshi:
Zum Thema Eyefinity:Um Eyfinity zu nutzen braucht man nur bei fehlendem DP extra Hardware, aber das sollte mittlerweile hinlänglich bekannt sein. Du meckerst doch auch nicht, dass man für 3D-Funktionalität eine 3D-Brille und 120Hz Monitor braucht oder?
Aus dem CB-Test:" Eyefinity ist wie gewohnt mit von der Partie, wobei eine einzelne Grafikkarte mittlerweile ausreicht, um gleich sechs Monitore anzusteuern – solange der DisplayPort-Anschluss genutzt wird. Für die anderen Anschlüsse gelten dieselben Limitierungen wie bisher."

Und hier den Stromverbrauch anzuführen ist doch obsolet. Bei Nvidia gibts die Möglichkeit nicht 6 Displays an eine Graka zu hängen, und bei mehr Monitoren als 2, brauchst du noch eine weitere stromfressende Graka. Ich weiß gar nicht was du hast. Aber bissle Polemik schadet wohl nie was.

Zum Thema Features: Kannst du das Kind auch beim Namen nennen? Du schreibst vieles wurde gestrichen führst aber nix auf, geschweige denn belegst das durch irgendwas. Hier kann ich mir also auch mein Kommentar sparen.

Zum Thema doppelte Genauigkeit: AMDs Zielkundschaft dieser Karten sollte kein DP benötigen. Und für alle anderen wird es weiterhin die professionelle Schiene aka FirePro geben. Schließlich will AMD ja auch was verdienen. Nvidia würde es übrigens auch gut tun DP beim Fermi wegzulassen und dieses nur im professionellen Bereich anzubieten. Aber vielleicht kommen die auch noch auf den Trrichter.
Edit: Bei der GTX 460 wurde die DP Performance auch verringert, zwar nicht komplett gestrichen aber immerhin. Siehe Zitat aus Test: "Double-Precision ist auf dem GF104 weiterhin vorhanden, aber auf ein Zwölftel der Single-Precision-Leistung reduziert."
Hast du da auch so ein Aufstand gemacht?

Zum Thema Bildqualität: Seh ich nicht so eng wie viele andere hier. Die meisten User haben keine Ahnung was AA und AF überhaupt ist. Und die Freaks welche hier unterwegs sind wissen was zu tun ist. Man könnte ATI einzig und allein vorhalten, dass man immer noch keinen entsprechenden Gegenpart zu Nvidias High Quality hat. Aber alles andere dürfte den meisten egal sein. Des Weiteren wurden ja auch Probleme angegangen. Thema Banding und Veringerrung des Flimmern. Aber das will ja keiner wissen. Ein weiterer AA-Modus ist auch noch hinzugekommen, der sich im ersten Moment auch sehr gut anhört. Was er tatsächlich zu leisten mag wird sich noch zeigen.

Zum Thema lieber gleich einen größeren Bildschirm: Sorry dein Vergleich hinkt hier gewaltig. Ein 47 Zoll Fernseher hat "nur" eine Full HD-Auflösung. Und selbst ein 30" TFT-Monitor bietet nur 2560x1600 und kostet ein vielfaches mehrerer 24" TFTs. Was bietet hier Eyfinity nochmal? Sorry aber informier dich erstmal bevor du so ein Quark von dir gibst.

Zum Thema Namenswirrwar: Ist doch überhaupt nicht gegeben. Denn selbst in diesem Preisbereich sollte sich der Kunde vor Kauf informieren. Wer das nicht tut ist selber schuld. In jedem Test wird sehr ausführlich auf dieses Thema eingegangen. Auch von AMD gibt es entsprechende Folien. Und das die 68er Serie die neue/alte Performancebezeichnung ist wie auch schon bei der 38er und 48er Serie, sollte allein schon am Preis ersichtlich sein. Damals gabs eben keinen highend Ableger. Den wird es nun aber mit der 69er Serie wieder geben.
AMD hat kein Namenschaos hinterlassen. Sondern so ist halt mittlerweile die logische Einordnung der Karten. Die 5870 konnten sie halt nicht 5970 nennen, weil es eben keine Performanceklasse gegeben hat oder nur mehr schlecht als recht mit der 5830 umgesetzt wurde. Eine klaffende Lücke zur 5770 ist ja nun auch nicht der wahre Jakob.

Zum Thema Übertaktbarkeit: Ist für einige Freaks wie hier im Forum wichtig aber ganz sicher nicht für den großteil der Käufer. Die haben davon nämlich keine Ahnung oder möchten eventuell auch ihre Garantieansprüche nicht verlieren. Deshalb spielt der Übertaktungspart in Tests auch nur eine sehr nebensächliche Rolle.

Zum Thema Stromverbrauch: Sehe ich zumindest bei der GTX 460 auch nicht so kritisch. Hingegen bei der GTX 470/480 schon. Es geht eben auch anderst wie es AMD schon mit der 5850/5870 gezeigt hat. Ein höherer Stromverbrauch bedeutet in aller Regel auch einen größeren und ggf. auch lauteren Kühler, ein stärkeres Netzteil muss vorhanden sein, die Karte hat evtl. eine geringere Lebensdauer ... Hier hast du einfach nicht weiter gedacht.

Zum Thema Zusammenfassung: Hier hab ich mich doch echt fast kaputtgelacht. Der Chip ist kleiner geworden weil er günstiger zu produzieren und somit für AMD unterm Strich mehr rüber kommt. Eine Mehrleistung ist definitiv vorhanden. Wenn man sich mal die Einführungspreise der 5850 anschaut und nun die Preise der 6870 welche ja sogar noch leicht schneller ist. Also Preis/Leistung past und Performance/mm² sowieso. Nvidia war quasi gezwungen den Preis zu senken. Und im Falle der GTX 470 tut das bei so einem reisen Chip nun richtig weh.
Das dieses Namenschaos gewollt sein soll ist ja mal mehr als lächerlich. Außerdem seh ich hier gar kein Namenschaos. Aber wenn es sonst nix zu meckern gibt dann liegts halt am Name :freak:
Und die Meinung ein paar User in einem Forum kann AMD recht herzlich egal sein. Mir persönlich ist es im Übrigen auch egal, da ich mich vorher informiere bevor ich was kaufe.
Die Designentscheidung für 40nm war das einzige was AMD übrig blieb, denn es gibt momentan noch keine alternative. Aber Hauptsache wieder bissle Polemik. Und aus Sicht von AMD kann man die Graka eben nicht weg lassen. Weil man bis dato noch kein richtige Konkurrenz zur GTX 460 hatte, die auch preislich rentabel für das Unternehmen war. Eine 5830 war schlichtweg zu teuer.
Wenn du dir mal die die-size der neuen Chips anschaust, dann wird dir auch klar was AMD damit bezwecken will. Kostenerparnis. Aber betriebswirtschaftliches denken ist ja bei vielen hier fehl am Platze. Hier wird immer nur an sich selber gedacht.
Und zu guter letzt: Wie soll ein Chip in 32nm kommen, wenn es diesen Fertigungsprozess überhaupt nicht gibt? Wer sollte denn deiner Meinung nach die Chips fertigen? Die nächste Generation wird nun halt gleich in 28nm kommen.
Die Karten sind jetzt schon das was sie werden sollten. 28nm sind für diese Chips noch gar nicht notwendig. Außerdem kommt ja auch noch Cayman aka 6950/70, die Highendklasse, übrigens ebenfalls in 40nm.


Also an Hand deinen Ausführungen kann ich dich echt nicht mehr für voll nehmen. Aber mittlerweile liest man solche Dinge ja immer öfters hier im CB-Forum.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Ich bin mir nicht sicher, ob man Smartphones damit vergleichen kann, da sie eine ganz andere Grafikklasse sind. Das grafisch Beste ist zurzeit der Tegra, der aber gerade erst eingeführt wird.
Alles andere hat für jede Funktion doch meist eigene Chips. H.264 ist ein Beispiel dafür, richtig. Jedoch musst du zugeben, die beste Hardware taugt ohne gut umgesetzte Softwarelösung nicht die Bohne.

Bzgl. AMD Tesselation. Sorry, aber du schwafelst doch nur herum. Keine neue Quelle, keine neuen Informationen.
Ich wollte GPUs nicht mit SmartPhones vergleichen sondern nur die Leistungsfähigkeit/Größe von Fixed Function Units erklären. Darüber hinaus, wird Tegra nicht gerade eingeführt. Ich hab schon mehr als 1 Jahr einen MP3 Player mit Tegra drinnen und vom neuen, der übrigens ein SoC ist, kennt man noch keine Vergleiche mit anderen SoCs die auf ARM basieren, wie Samsungs Hummingbird bzw. ihren Grafikeinheiten.
Du solltest dich weniger auf das Schwafeln und mehr auf das Recherchieren konzentrieren ;)

Interessante Erlärungen zur Tesselator Chain von Charlie:

"So with everything running faster, that means tessellation runs about 25% faster too, right? Well, not really, ATI put a lot of effort into beefing up the parts around the tessellator as well. The tessellator is only one part of the tessellation chain, there are two sets of shaders, the hull shader and the domain shader that are before and after the tessellator itself.

The tessellator itself just splits up triangles into sub-triangles, the two shaders do most of the heavy lifting to make things pretty and right. Think of this chain as the shaders putting some vegetables on a cutting board in a nice fashion, then the tessellator cuts them with a cleaver, and passes them off to be artfully arranged by the other shaders.

Tessellation performance

For ATI, the bottleneck was in the Hull and Domain shaders, so both sets were heavily massaged and updated to improve tessellation performance to 2x that of the 5850. Although this sounds like a lot, the older chips were more than capable of putting up a triangle per pixel on any monitor in existence at any displayable frame rate, so it is basically counting how many angels can dance on the head of a pin. Either that or fighting benchmarks that are simply made to exploit architectural differences."
 
Zuletzt bearbeitet:
@Klikidiklik
Puh, dein Mammutgebilde von Text ist ja länger als meiner :lol:
Ich versuche es trotzdem:
-Um nicht bei Eyefinity alleine zu bleiben, sage ich kurz, dass mir keinerleie Hardware gefällt, die zusätzlich zum normalen Paket (Grafikkarte hier gemeint) gekauft werden muss. Solche Lösungen sind nicht schlecht und dass sie vorhanden sind auch nicht.

Jedoch mal ehrlich, Hand aufs Herz:
-Wieviele User nutzen wirklich solche Features?
Klar es mag sie geben, aber ich schätze mal stark untertrieben etwa 5%, genau wie Crossfire/SLI etc - vielleicht 20-30%. Der Rest benutzt diese Features wohl nicht. Natürlich gebe ich dir recht, es ist toll sie zumindest zu haben.

Klikidiklik schrieb:
Der Chip ist kleiner geworden weil er günstiger zu produzieren und somit für AMD unterm Strich mehr rüber kommt.

Kleiner weil günstiger zu produzieren? Das sieht mir mehr nach der Folge aus.

Meine Frage war eigentlich: Wo wurde gekürzt?
Es gab keinen Shrink auf 32nm, also müssen sie ja irgendetwas geändert haben. Entweder sie haben mehrere Einheiten zusammengefasst und unnötige Einheiten beseitigt, was ich mir durchaus vorstellen kann. Oder man hat an irgendwelchen Stellen den Rotstift angesetzt und ganze Features herausgenommen oder deren Funktionsumfang gekürzt/beschnitten.

Was es genau ist, kann ich dir noch nicht sagen, da selbst die Testmagazine erstmals nur oberflächlich testen (können). Sobald es ausführliche Tests über längere Zeiträume gibt, wird hier nach und nach geforscht werden.

Es ist nicht so, dass ich kein gutes Haar an AMD lassen will. Wenn ich etwas kaufe, will ich im Vorfeld wissen ob sich der Kauf rendiert. Sobald man hinterher feststellt, die Katze im Sack gekauft zu haben, ist es zu spät. Das gilt sowohl für Nvidia als auch für AMD.

Eine Mehrleistung ist definitiv vorhanden. Wenn man sich mal die Einführungspreise der 5850 anschaut und nun die Preise der 6870 welche ja sogar noch leicht schneller ist.

Eine Mehrleistung im Vergleich zu was? Die 5800er sind 2009 teilweise schon erschienen. Die Karten sind also etwa ein Jahr alt, wenn man die damalige schlechte Verfügbarkeit nicht bemängelt -> wurde auch von vielen Shops ausgenutzt.
Die Preise wurden von AMD nur so hoch gehalten, da Nvidia nichts entgegensetzen konnte. Jetzt haben wir eine komplett andere Marktlage. Die GTX460 diktierte monatelang den Mainstreambereich bis 200€, da sie mehr Leistung hatte als eine HD5770. Das tat AMD/ATI enorm weh.

AMD hätte es sich garnicht erlauben können, die alten Preise von 2009 nochmals anzubieten. Kein Mensch hätte diese Karten auch nur eine Blickes gewürdigt. Da die 5850 bereits teilweise ab 180-200€ zu haben ist, mussten sie den Preis senken. Einzig die 5870 wird weiterhin für um die 300€ gehandelt bis die Caymans kommen. Immerhin ist sie weiterhin schneller als eine 6870.

Also Preis/Leistung past und Performance/mm² sowieso. Nvidia war quasi gezwungen den Preis zu senken. Und im Falle der GTX 470 tut das bei so einem reisen Chip nun richtig weh.

Richtig, das ist durchaus vorstellbar. Allerdings könnte Nvidia auch nur versuchen die alten Karten aus dem Lager zu bekommen und Platz für die neue ominöse 500er Reihe mit GF110,114 etc. Platz zu machen. Wobei ich mich hiermit etwas aus dem Fenster lehne, da noch keine offizielle Ankündiung.

Ich glaube nicht, Nvidia produziert weiterhin noch GF100. Wenn dann nur für die Tesla-Ableger. Eher die Vorproduktion für die kommende Generation von der die Spatzen von den Dächern pfeifen.

Performance/mm² ist ein schönes Schlagwort. Aber es eignet sich noch nichtmal für ein Media Markt-Prospekt. Es ist einfach eine Einheit für Nerds und Freeks. Richtig wäre wohl eher Preis/Leisung. Aber erinnern wir uns doch zurück als die 5800er rauskamen. Die HD 4870 wurden für einen Bruchteil verschleudert. Wieviel war der Preis damals, 100€? Das ging so lange gut, bis die HD 5770er kam und sie ersetzt hat.
Selbiges wird jetzt mit der 5800er Serie passieren. Wobei ich mir immer noch nicht sicher bin, ob die 6800er-Serie wirklich "besser" ist.


@DvP
Es ist immer äußerst interessant, dass alle nach Quellen schreien. Angenommen man würde wirklich Quellen liefert, werden diese als nicht aussagekräftig bezeichnet - ergo nicht geltend.

Ich tue das jetzt auch und erkläre Charlie D. als nicht aussagekräftig bzw. objektiv, da er nur einseitig berichtet. Die Wellen seines Hasses schlagen einem ja in seinen Artikeln regelmäßig entgegen. Das ist kein seriöser Journalismus.

Zugegeben, ich kann keine eindeutigen Quellen liefern. Das liegt aber nicht daran, dass ich hier irgendetwas erfinde, sondern dass ich auf unzähligen Seiten unterwegs bin und mir meine "Schnipsel" überall aufgreife.
Da sind teilweise Seiten von denen man noch nie gehört hat, die aber trotzdem gutes Material liefrn. Das Problem ist, keine Seite widmet sich solchen Dingen. Große Enthüllungsberichte findet man nur vereinzelt und dann sind diese auch noch oft subjektiv ausgelegt.

Wünschenswert wäre dann eine Art Wikileaks für Grafikkarten und am Besten noch mit neutraler Berichterstattung.
 
Hardware_Hoshi schrieb:
Es ist immer äußerst interessant, dass alle nach Quellen schreien. Angenommen man würde wirklich Quellen liefert, werden diese als nicht aussagekräftig bezeichnet - ergo nicht geltend.
Bring erstmal eine, dann sehen wir weiter. So lange kann man folgende Aussage noch getrost ignorieren: "
Falsch, AMD hat Tessellation bei der 5800er Serie größtenteils über Software gelöst und einen Mini-Baustein für minimalstes Tesselationsleistung hinterlegt."

Hardware_Hoshi schrieb:
Ich tue das jetzt auch und erkläre Charlie D. als nicht aussagekräftig bzw. objektiv, da er nur einseitig berichtet. Die Wellen seines Hasses schlagen einem ja in seinen Artikeln regelmäßig entgegen. Das ist kein seriöser Journalismus.
Das kannst du getrost so machen und ich würde Charlie auch nicht als objektiven (so fern möglich) Journalisten sehen, da er gerne gegen NV basht. Aber das macht die Infos von ihm nicht schlechter. In dem von mir zitierten Teil erklärt er auch nur wie Tess. gelöst ist und bezieht keine Stellung außer jene, dass Tess. aktuell kaum sinnvoll/effizient in der Praxis verwendet wird. Damit steht er auch kaum allein und außer Unigine, der es wohl sehr praxisfern einsetzt gibt es kaum Anhaltspunkte für Performancemängel der Radeons in der Hinsicht.

Hardware_Hoshi schrieb:
Zugegeben, ich kann keine eindeutigen Quellen liefern. Das liegt aber nicht daran, dass ich hier irgendetwas erfinde, sondern dass ich auf unzähligen Seiten unterwegs bin und mir meine "Schnipsel" überall aufgreife.
Speichere dir die Schnipsel, denn das kostet dir nur 1-2 Klicks und dann kann man auch tatsächlich drüber diskutieren. Einen Bedarf daran sehe ich aktuell nicht, wenn es 0,0 Nachweis für deine Behauptung gibt.
Diskutieren ist zwar schön und gut, aber ohne jegliche fundierte Basis, kann da nix dabei rauskommen.

Bzgl. deiner Diskussion mit Klikidiklik:
Ich gebe dir in vielen Punkten Recht, auch darin dass uns mm^2/Performance eigentlich nicht zu interessieren hat. So lange Leistungsaufnahme und Preis stimmen, kann uns das herzlich egal sein. Anders siehts bei der "monatelangen" Dominanz der GTX460 aus. Guck mal, wann die auf den Markt gekommen ist und wie lange 5770 und 5850 schon verkauft werden. Wenn man dann noch betrachtet, dass AMD die Preise nicht großartig senken musste und die Chips noch viel günstiger (im Verhältnis zum Verkaufspreis) produzieren konnte, hat AMD die kurze Zeit bestimmt nicht sonderlich weh getan. Gerade mal 3,5 Monate konnte NV hier richtig Fuß fassen bevor AMD das Segment erneut attakiert und das mit höherer Performance und noch deutlich weniger Produktionskosten.
 
Zuletzt bearbeitet:
@Hardware_Hoshi: Habe mich bei dem einen Satz verschrieben. Wohl auch verständlich bei der länge des Posts. Aber ich denke du weisst was gemeint war. Nämlich das er durch die kleinere größe eben günstiger zu fertigen ist und AMD eben mehr Spielraum beim Preis lässt. Nvidia hat hier eben sowohl bei der 460 als auch 470 ein richtig großes Problem. Und ob und wann ein Nachfolger kommt steht halt eben in den Sternen, solange es keine offizielle Meldung seitens Nvidia gibt. Fest steht allerdings das noch eine Highendkarte von AMD mit dem Cayman kommt. Und der wird definitiv schneller als der Cypress. Wie viel, werden wir nach den ersten Tests sehen.


Zum Thema Eyefinity: Ich halte Eyefinity im Privatbereich übrigens auch nicht für nötig, aber deswegen muss man nicht gleich alles schlecht reden. Hier auf der Arbeit find ich es geil.

Zum Thema wegstreichen: Wo gekürzt wurde kann ich dir genau sagen und das zeigen dir auch entsprechende Tabellen in den Tests.
Weniger Shader-Einheiten, wegfall der DP-Einheiten, Verringerung der TMUS/TAUS (ist klar weil es ja auch weniger Shader-Einheiten sind). Um dieses auszugleichen wurde eben an der Taktschraube gedreht.

Zum Thema Preisgefüge: Was letztenendes dazu führte warum die Preise für die 58er Reihe nicht nach unten ging kann doch heute immer noch keiner genau sagen. Obs am schlechten Fertigungsprozess seitens TSMC und damit der geringen Verfügbarkeit lag oder mangels Konkurrenz, wer will das denn wissen ausser AMD selber?
Die Lage änderte sich doch erst mit erscheinen der GTX 460. AMD hatte das Problem hierzu keinen Gegenpart zu haben. Die 5830 war zu teuer und dazu auch noch zu langsam. Die 5850 war zu schnell und ebenfalls zu teuer um sie so massiv im Preis zu senken. Die Preise fallen hier jetzt ebenfalls nur weil die Karten abverkauft werden wegen der 68er Reihe. Und diese Serie ist die eigentliche Konkurrenz zur GTX 460. Und mit dieser Serie kann AMD nun die Preise nach belieben diktieren eben weil der Chip so klein ist im Vergleich zur Konkurrenz. Für Nvidia ist das halt nun richtig böse.
Generell wollte ich eigentlich auf Preis/Leistung raus. Und da überraschen die neuen Karten auf jeden Fall.

Es steht außerdem überhaupt nicht zur Debatte ob die 68er Serie wirklich besser als die 58er Serie ist. Denn AMD ging es ja eigentlich ausschließlich um einen günstigeren Chip und einen Gegenpart zur 460 GTX. Und das die 68er Serie nun so gut performt ist wohl mehr als positiv. Es profitieren ja schließlich alle Käufer davon. Und immer dran denken, dass noch eine schnellere Serie kommt. Das vergessen die meisten bei ihrer Argumentation.
 
Warum schreiben eig alle dass die Performance über den takt kommt? Wo haben denn die 6800 deutlich mehr Takt als die 5800er? Richtig, nirgends.

Wie im CB-Artikel richtig steht wurde dir Effizienz gesteigert. Durch den 2. Ultra-Threaded-Dispatch-Processor werden die 5D Shader besser ausgelastet, daher kommt die Leistung. Die Texturfüllrate kann man zz. ja eh vernachlässigen.
 
Zurück
Oben