News Verwirrung um „Radeon HD 6700“-Spezifikationen

Die Vorgänger überflügelt man – zumindest auf dem Papier – offenbar mit Leichtigkeit und die HD 6770 dürfte sogar eine aktuelle HD 5850 überbieten.
Sollte eigentlich selbstverständlich sein, wenn man den Stromverbrauch betrachtet.

Die Entwicklung zu immer leistungshungrigeren Karten gefällt mir überhaupt nicht.
 
TrueAzrael schrieb:
Ich sag euch ich weiß genau das die neuen AMD Karten 300 Watt im idle brauchen und der Konter von Nvidia bei 250 Watt Volllast gleich schnell rechnet. Aber wartet lieber denn nächstes Jahr bringt Intel ne Karte die bei 20 Watt Volllast das 50fache der neuen AMD und Nvidia-Karten leisten wird... Im übrigen sollte ich darauf hinweisen das diese Infos genau so zuverlässig sind wie alle anderen die grad so im Netz rumschwirren. ;-)

lg True

Mal eine Frage von Physikalischengrundlagen hast du schon eine grobe Kenntnis.

300Watt IDE?
20Watt unter Last aber 50 Fache mehr Leistung? Unter welcher Struktur ect.?
 
Meiner Meinung beschreitet AMD genau den falschen Weg mit seinen Karten atm. Es hat ja zur Vorstellung der der HD5k Reihe kurz Hoffnung gegeben durch Eyefinity das AMD endlich auch mal an den Features arbeitet und nicht nur an der Rohleistung. Was interessiert mich Rohleistung wenn das was dabei rauskommt scheiße aussieht/weniger Funktionen bereit stellt?

Schade das Intel und Nvidia ihren Kleinkrieg ausfechten müssen, diese beide Firmen zusammen könnten die IT Welt niederreissen.

AMD muß endlich wieder zu alter Stärke finden und damit meine ich die gute alte ATI Zeit. Im Moment ist AMD nichts weiter als der Aldi der IT, so billig wie möglich und nur mit Balkenlänge überzeugen zu wollen. Aber wie man sieht scheint es ja beim Großteil der Käufer zu ziehen, leider. Die machen sich halt ausser um Balken/avg FPS sonst keine Gedanken.
 
Tekpoint schrieb:
Mal eine Frage von Physikalischengrundlagen hast du schon eine grobe Kenntnis.

300Watt IDE?
20Watt unter Last aber 50 Fache mehr Leistung? Unter welcher Struktur ect.?

Ja aber du kannst scheinbar ernstgemeinte von spaßigen Aussagen nicht unterscheiden. Wollte damit im übrigen nur ausdrücken das es genau 0 Sinn macht über Daten zu diskutieren die irgendwo auftauchen und nicht offiziell bestätigt wurden.

lg True
 
@terraconz

Ja ne is klar. Aber von dir bin ich nix anderes gewöhnt!

@sdooM

Versteh deine Aussage nicht - die 6770 wäre unter diesen Daten schneller uns stromsparender als die "alte 5850" - wo liegt das Problem?

MfG
Suessi22
 
Hurrycane schrieb:
wie erschließt sich aus der Tabelle, dass es 256bit SI ist?
Entweder durch einfache Division.(Bandbreite und Takt sind ja gegeben) oder einfach durch Vergleich mit der 5850. (welche ja bekanntermaßen auch ein 256bit Speicherinterface hat).


Falls diese Anagaben stimmen sollten, wäre das natürlich schon ne Hausnummer. Je nach dem was sonst noch verbessert wurde, würde man nicht weit von der 5850 bzw. 5870 entfernt liegen.

Allerdings frag ich mich dann, wie groß Cayman wird. 1,5-2x Barts wäre nen riesiger Klopper.
 
Ich hoffe die Karten kommen bald raus und halten das was die Spezifikationen versprechen. Letztenendes aber wird die Verfügbarkeit und der Preis über den Erfolg entscheiden. Ich verschiebe schon die ganze Zeit den Kauf einer neuen Grafikkarte und hoffe das nicht umsonst.
 
Trotz allem erhöht sich eben die Leistungsaufnahme über die Jahre hinweg.
Eine Mainstream-Karte mit über 100W hätte vor wenigen Jahren noch sehr
schlechte Wertungen bekommen, heute ist sie auf einmal sparsam.

Ich kann mich noch an Zeiten erinnern, in denen Karten als unnütze
Stromfresser verschrieen waren, weil sie ein 4Pin-Molex-Kabel brauchten.
Diese HighEnd-Monster haben dann unter Vollast auch fast 80W
gefressen. Unglaublich! Damals hatte man gehofft, dass der nächste
kleinere Fertigungsprozess dazu führt, dass die Leistungsaufnahme nicht
weiter steigt. Heute sind wir in dieser Klasse bei 300W. Was damals 35W
verbraten hat, frisst heute 100W. "Also ich werde mich weigern so eine
Grafikarte mit Stromanschluss über NT zu kaufen, das sind eher Bastelllösung
als etwas anderes.
"
 
Zuletzt bearbeitet:
Das es eine 6770 (also Barts vollausbau) nicht zum Preis der jetzigen 5770 geben wird, sollte doch wohl jedem klar sein. Vor allem wenn Nvidia nicht in der Lage sein sollte zeitnah ein entsprechendes Gegenstück zu bringen.

Je nach Leistung die man mit der 6000er Serie erreicht, wird auch der Preis ausfallen. Ati hat genausowenig etwas zu verschenken wie Nvidia, auch wenn ich das Gefühl habe das einige Fanboys das so sehen ;) Und mittelfristig müssen die Karten (also der gesamte gehobene Grafikkartenmarkt) sowieso wieder teurer werden, sonst haben die Hersteller nichts mehr davon. Wir alle wissen ja noch was vor knapp 2 Jahren mit der Speicherindustrie passiert ist, als Ram verschenkt wurde.
 
anfangs würden sich die Preise ~200,- pro Karte einpendeln. Dann aber wieder steigen, wie das bei der 5er Serie war ;-)
 
TrueAzrael schrieb:
Ja aber du kannst scheinbar ernstgemeinte von spaßigen Aussagen nicht unterscheiden. Wollte damit im übrigen nur ausdrücken das es genau 0 Sinn macht über Daten zu diskutieren die irgendwo auftauchen und nicht offiziell bestätigt wurden.

lg True

Nein ich glaube das kann ich auch nicht:) hast recht, aber an solchen Spekulationen ist auch immer was wahres dran.
 
Sollten die jetzigen Daten auch nur ansatzweise stimmen, greife ich deffinitiv zur HD6770 und nicht wie geplant zur HD6850. Denn die Leistung einer HD5850 (die ich bis Dato hatte) und die HD6770 ca. haben soll, reicht mir und meinem 22 Zoll LCD völlig!!
 
Lübke schrieb:
dir ist schon klar, dass das im endeffekt für uns kunden schlecht wäre, oder? von monopolen profitiert immer nur einer: der monopolist.

Es wäre kein Monopol da AMD/ATI mit knappen 20% Marketshare am Start wären.
Das Problem ist vorallem das ich für Nvidia auf lange Sicht im PC Consumer Market keine Zukunft sehe ohne X86 Lizenz oder ohne von einem der großen gestützt zu werden. Ich will mir die PC Spiele Landschaft ohne Nvidia gar nicht ausmalen, dann wird wahrscheinlich noch viel mehr nur auf Konsole produziert. Wenn die Millionen die Nvidia in ihr TWIMTBP oder auch in Sachen wie Physx steckt wegfallen wer springt dann in die Bresche? Richtig keiner und somit können wir uns höchstens noch über Konsolenports freuen die nichtmal irgendwelche Extra Features ala Physx oder bessere Filterung bieten.

Würde AMD den Kurs von ATI übernehmen (den den ATI kurz vor Aufkauf eingeleitet hat), würde die ganze Sache nicht so tragisch aussehen. Aber so wie sie sich atm präsentieren ist die Chance das AMD in diese Bresche springt quasi gleich null. Und Intel wird das ebenfalls nicht tun da der Riese keinerlei Grund dazu hat.
 
Ausgemachter Unsinn, dass ein Chip in 40 nm erscheint, der leistungsfähiger als die HD 5850 wird und dabei eine geringere TDP aufweist. Und dass es auch noch eine HD 6770 (also der Mainstream-Chip) sein soll, die fast an die HD 5870 ranreichen soll, ist in 40 nm genau so unwahrscheinlich. Wo soll denn dann erst die HD 6850 oder gar die HD 6870 liegen? 50 % über der GTX 480? Vergesst das mal schleunigst in 40 nm.

Meine größte Hoffnung ist im Übrigen, dass AMD das AF-Cheating mit der HD 6000-Serie endlich einstellt.
 
@terraconz: Also ich denke mal nicht das PhysX hier das Thema ist. Also wenn du sonst nichts zu sagen hast dann lass es. Desweiteren möchte ich nur noch eine sache sagen, Physikberechnung gibt es schon länger als PhysX. Und es wird sowieso in absehbarer Zeit eine offene Lösung geben für Nvidia sowie für AMD, alles andere macht keinen Sinn. Also mach dir nicht ins Hemd.

@Feyn: Unmöglich ist das nicht, du siehst doch auch das Nvidia mit 300 Watt verbauch in 40nm klar kommt :D
 
terraconz schrieb:
Schade das Intel und Nvidia ihren Kleinkrieg ausfechten müssen, diese beide Firmen zusammen könnten die IT Welt niederreissen.


Ist das dein ERNST:confused_alt:

Den in ein Monopol will ich nicht leben. Und so weit mir bekannt ist gibt es Organisationen die so was überwachen das keine Firma so ein großen Herrschaft anstreben kann (Monopol).

Deswegen gibt es ja immer eine andre Firma in ein Segment. Zwei Desktop CPU Firmen zwei GPU Desktop Firmen ect.

Und Intel hat auch seine erste Grafikkarte vorgestellt zwar für CUDA aber immer hin. Plus ihren mistigen Mobil HD GPU Reihe.
 
Siehe dazu was ich weiter oben zum thema geschrieben habe, danke!
 
Mein Gott wie stark werden die Karten denn noch :freak:
Kann es kaum erwarten, bis ich erste Spiele-Benchmarks sehe. Sie werden sicherlich leistungshungriger, wärmer und lauter sein (wenn nicht dann bin ich wirklich platt), dafür gibt es dann wieder einige Board-Partner, die mich dann vollkommen vom Stuhl kippen lassen :)

Achja und der Preis ist natürlich wichtig, was bringt es einem, wenn sich die neue Mittelklasse nicht mehr im (erdachten) mittleren Preissegment befindet.
 
Ich finde es eigentlich nicht schlecht wenn die "Mittelklassekarten" eine so hohe Leistungsteigerung bekommen würden, auf der anderen Seite hätte ich eine HD 6770 mit etwas weniger Mehrleistung, dafür gleichem Stromverbrauch und gleichem Preis wie die HD 5770 auch interessant gefunden.
Bin auf jeden Fall mal gespannt was die Karten so leisten :)
 
Zurück
Oben