Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Radeon HD 6900 ab 259 Euro gestartet
- Ersteller Volker
- Erstellt am
- Zur News: AMD Radeon HD 6900 ab 259 Euro gestartet
M
Malkavien
Gast
Peinlich?
Nur weil es kein Quantensprung wie bei der 4- und 5000-er Serie war?
Irgendwann fängt man an, zu hohe Erwartungen zu hegen...
ATI schreibt mit Mühe schwarze Zahlen... klar, das die erst mal etwas verdienen wollen und das dann in neue Technologie stecken.
Und der marginale Unterschied zu den nVidia Karten ist auch nicht der Rede wert...
Ob es jetzt 70 oder 72 fps sind, entscheidet bei mir das P/L Verhältnis.
Nur weil es kein Quantensprung wie bei der 4- und 5000-er Serie war?
Irgendwann fängt man an, zu hohe Erwartungen zu hegen...
ATI schreibt mit Mühe schwarze Zahlen... klar, das die erst mal etwas verdienen wollen und das dann in neue Technologie stecken.
Und der marginale Unterschied zu den nVidia Karten ist auch nicht der Rede wert...
Ob es jetzt 70 oder 72 fps sind, entscheidet bei mir das P/L Verhältnis.
K
kaigue
Gast
@ directNix
Aber lässt AMD nicht bei TSMC fertigen? Müssten die nich die Fertigungsstraßen anpassen, wenn sie einen größeren Chip bauen müssten?
Ich denke, dass ist der Grund, warum sie's wohl nicht gemacht haben. Eine Umstellung wäre doch viel zu teuer.
Aber lässt AMD nicht bei TSMC fertigen? Müssten die nich die Fertigungsstraßen anpassen, wenn sie einen größeren Chip bauen müssten?
Ich denke, dass ist der Grund, warum sie's wohl nicht gemacht haben. Eine Umstellung wäre doch viel zu teuer.
Warum sollten die Fertigungsanlagen angepasst werden? Es werden halt neue Masken benötigt. Aber da brauchst du ja eh neue.kaigue schrieb:@ directNix
Aber lässt AMD nicht bei TSMC fertigen? Müssten die nich die Fertigungsstraßen anpassen, wenn sie einen größeren Chip bauen müssten?
Als angehender Ingenieur solltest du dann auch wissen dass der wirtschaftliche Aspekt bei der Entwicklung eine grosse Rolle spielt und auch zu den Ingenieursaufgaben gehört.directNix schrieb:Dies ist ein ganz klarer Fall von Versagen beim Management. Denn es ist eindeutig ersichtlich, dass sie durch die kleine Chipfläche den Gewinn maximieren wollen. Die Leistungssteigerung ist dabei vollkommen egal.
Ingenieurmässig wäre is locker machbar, einen grösseren Chip zu machen.... nur hat das Management das letzte wort.
Klar hätten die nen grösseren Chip bauen können. Die Frage ist zu welchem Preis. VW könnte auch einen Supersportwagen mit tausenden PS bauen. Nur bezahlbar wäre das nicht.
Du weißt doch gar nicht was für Effekte der grössere Chip mit isch bringen würde. Die werden schon ihre Tests gemacht haben. Villeicht war die Chipausbeute dann zu niedrig oder Architektur skaliert schlecht bei weiterem Ausbau der Shadereinheiten, weil dann irgendwo ein Engpass entsteht, ob jetzt in der Kommunikation zwischen den ALUs oder wo auch immer. Da gibt es zig Möglichkeiten wo es dran hapern kann.
Das Management hätte versagt, wenn sie mit aller Macht nen Riesenchip durchgedrückt hätten und dieser Performance mässig trotzdem nicht der Hit ist und dadurch ein Riesen Verlust angehäuft wird.
Gerade als (Fast-) Ingenieur sollte man doch wissen dass in der Entwicklung eines High-End Produktes viele Faktoren eine Rolle spielen. Da kann man als Außenstehender doch bloß Vermutungen anstellen. Aber gleich sagen die hätten versagt ...
Zuletzt bearbeitet:
derNetZwerg
Cadet 3rd Year
- Registriert
- Okt. 2008
- Beiträge
- 38
@Volker:
Sollte die Rechenleistung einer AMD HD6900 nicht nur halb so groß sein? Du schreibst doch selber im Testbericht/Architekturbeschreibung das eine Schader-ALU ein MAD pro Takt kann.
Daher sollte doch die Rechnung sein (HD6970): 880 * 10^6 Hz * 384 Shader-Core * 4 ALU/Shader-Core = 1,35168 * 10^12 FLOPs = 1351,68 GFLOPS
Oder liegt die Verdopplung an der Tatsache das "Multiply" und "ADD" als einzelne Operationen gezählt werden?
@Topic
Es wird ja immer von der hohen Effizienz der AMD-GPUs gesprochen. Dies kann man aber nur bezogen auf Spieleleistung und Energieaufnahme sagen.
Ich bin doch sehr erstaunt das AMD es seit mehreren Generationen nicht hin bekommt die doch deutlich höhere Rechenleistung des Shaderbereichs in Ausgabeleistung zu verwandeln. Für mich hinterlässt das nach wie vor den Eindruck, das es AMD immer noch nicht gelungen ist den Shaderbereich optimal zu nutzen.
Sollte die Rechenleistung einer AMD HD6900 nicht nur halb so groß sein? Du schreibst doch selber im Testbericht/Architekturbeschreibung das eine Schader-ALU ein MAD pro Takt kann.
Daher sollte doch die Rechnung sein (HD6970): 880 * 10^6 Hz * 384 Shader-Core * 4 ALU/Shader-Core = 1,35168 * 10^12 FLOPs = 1351,68 GFLOPS
Oder liegt die Verdopplung an der Tatsache das "Multiply" und "ADD" als einzelne Operationen gezählt werden?
@Topic
Es wird ja immer von der hohen Effizienz der AMD-GPUs gesprochen. Dies kann man aber nur bezogen auf Spieleleistung und Energieaufnahme sagen.
Ich bin doch sehr erstaunt das AMD es seit mehreren Generationen nicht hin bekommt die doch deutlich höhere Rechenleistung des Shaderbereichs in Ausgabeleistung zu verwandeln. Für mich hinterlässt das nach wie vor den Eindruck, das es AMD immer noch nicht gelungen ist den Shaderbereich optimal zu nutzen.
Zuletzt bearbeitet:
(Kommentar zum Topic ergänzt)
Nasenbär schrieb:VW könnte auch einen Supersportwagen mit tausenden PS bauen. Nur bezahlbar wäre das nicht.
Machen sie doch oder ist Dir der Bugatti Veyron kein Begriff?
Laurin.
Lt. Junior Grade
- Registriert
- Dez. 2007
- Beiträge
- 476
Die Preise sind agressiver als erwartet. Hätte mit mehr gerechnet.
Edit: 329€ für ne 6970 und das bei der Apotheke Caseking & lieferbar Da fang ich an den 250 für meine GTX nachzutrauern.

Edit: 329€ für ne 6970 und das bei der Apotheke Caseking & lieferbar Da fang ich an den 250 für meine GTX nachzutrauern.
Zuletzt bearbeitet:
directNix
Lieutenant
- Registriert
- Apr. 2006
- Beiträge
- 906
@Nasenbär
AMD hat sich trotz allem total verkalkuliert. Nach über einem Jahr Entwicklungszeit kann man durchaus sagen, dass die Leistungssteigerung von 10 - 15 % bei einem gestiegenen Energiebedarf von 20 % einfach lächerlich ist.
Als angehender Ingenieur weiss ich, dass der Sinn einer Neuentwicklung darin besteht, die bereits vorhandene Lösung zu verbessern und nicht zu verschlechtern.
Ausserdem hat AMD den Fehler gemacht, Nvidia Karten als Referenz zu nehmen, und nicht die eigenen. Das erklärt auch, warum der Starttermin der 6970er verschoben wurde um noch eine minimale Leistungssteigerung zu erzwingen. Ansonsten wär man nicht mal auf Augenhöhe der GTX 570. Das Problem ist nun, dass diese Leistungssteigerung mit einem unverhältnismässigen Anstieg des Energiebedarfes erkauft wurde.
Ein von Anfang an grösserer Chip hätte wohl kaum diese Probleme, zumal man als guter Ingenieur immer bisschen Reserve einplanen muss.
By the way, Nvidia lässt ihre Monsterchips auch bei TSMC fertigen.
Fazit:
AMD hat sich zu lange auf den Lorbeeren ausgeruht und sich nur auf die Konkurrenz fixiert.
AMD hat sich trotz allem total verkalkuliert. Nach über einem Jahr Entwicklungszeit kann man durchaus sagen, dass die Leistungssteigerung von 10 - 15 % bei einem gestiegenen Energiebedarf von 20 % einfach lächerlich ist.
Als angehender Ingenieur weiss ich, dass der Sinn einer Neuentwicklung darin besteht, die bereits vorhandene Lösung zu verbessern und nicht zu verschlechtern.
Ausserdem hat AMD den Fehler gemacht, Nvidia Karten als Referenz zu nehmen, und nicht die eigenen. Das erklärt auch, warum der Starttermin der 6970er verschoben wurde um noch eine minimale Leistungssteigerung zu erzwingen. Ansonsten wär man nicht mal auf Augenhöhe der GTX 570. Das Problem ist nun, dass diese Leistungssteigerung mit einem unverhältnismässigen Anstieg des Energiebedarfes erkauft wurde.
Ein von Anfang an grösserer Chip hätte wohl kaum diese Probleme, zumal man als guter Ingenieur immer bisschen Reserve einplanen muss.
By the way, Nvidia lässt ihre Monsterchips auch bei TSMC fertigen.
Fazit:
AMD hat sich zu lange auf den Lorbeeren ausgeruht und sich nur auf die Konkurrenz fixiert.
Zuletzt bearbeitet:
Gegenfrage, was hat den nVidia gemacht bevor sie mit riesen Bohei Thermi alias GTX480 released haben?Was hat AMD eigentlich seit veröffentlichung der 5870 gemacht? Das ist ja technisch fast garkein Fortschritt und das über eien Zeitraum von mind. zwei Jahren!
Warte es doch mal ab was noch kommt! Ich denke wir werden auch nächstes Jahr noch mal 40nm sehen, da die Hersteller mit dem neuen Prozess erwartungsgemäß noch nicht klar kommen!
Zum einen sind nirgendwo die Ergebnisse so schlecht wie hier, zum anderen zeigen ja die großen Schwankungen in den Games (z. B. SC2) das die Treiber noch nicht optimiert sind und zum anderen werden die Preise sicher fallen, da es diesmal Konkurrenz gibt!
Nebenbei, die 6950 ist ohnehin schon gelungen - trotz größerem Speicher und höherem Takt ist sie schneller als das Top-Modell der Vorserie und das bei geringerer Stromaufnahme und deutlich geringerem Preis!
Sicher, auch ich hatte mir erst (vor relaese) mehr erhofft, aber mal nüchtern betrachtet ist das schon nicht schlecht!
Erstens ist Tausende was anderes als Tausend und zweitens ist der Veyron genau so ein Prestige Projekt der in der Entwicklung massig Geld verschlungen hat weil man Probleme hatte, ein Getriebe zu entwickeln, dass die extremen Belastungen aushält. Unterm Strich ist der Veyron ein Verlustgeschäft. Positiv ist da halt nur dass man das Image aufpolieren kann.M@tze schrieb:Machen sie doch oder ist Dir der Bugatti Veyron kein Begriff?
Du kannst doch vorher nicht kalkulieren wieviel schneller der neue Chip wird.directNix schrieb:@Nasenbär
AMD hat sich trotz allem total verkalkuliert. Nach über einem Jahr Entwicklungszeit kann man durchaus sagen, dass die Leistungssteigerung von 10 - 15 % bei einem gestiegenen Energiebedarf von 20 % einfach lächerlich ist.
Als angehender Ingenieur weiss ich, dass der Sinn einer Neuentwicklung darin besteht, die bereits vorhandene Lösung zu verbessern und nicht zu verschlechtern.
.
Außerdem kann von Verschlechterung keine Rede sein. Die 6950 hat gleiche Leistung bei weniger Verbrauch im Vergleich zu einer 5870.
Klar bei der 6970 sieht man, dass die Architektur ausgerizt ist.
Man liegt halt leistungs- und verbrauchstechnisch auf Höhe der Konkurrenz (GTX 570).
Daran sieht man doch das irgendwann Grenzen erreicht sind. AMD kocht auch nur mit Wasser, die können nicht einen Super-Chip nach dem anderen entwickeln.
Und nur weil Nvidia den Weg grosser Chips geht muss man das nachmachen? Ich dachte man soll sich nicht an der Konkurrenz orientieren? Wenn AMD jetzt mehr Gewinn mit der 6970 als Nvidia mit der GTX 570 machen sollte ist das doch prima.
Ich sage ja nicht dass AMD was grossartiges geleistet hat, nur man sollte sich auch mal bewusst werden, was es bedeutet, einen High-End Chip zu entwerfen. Nvidia und AMD haben sich doch beide schwer getan mit Verbesserungen in den letzten Monaten. Das allein zeigt doch schon das es nicht mal eben mit links gemacht wird.
Aber mit dem was du alles über AMDs Möglichkeiten in der Entwicklung weisst ohne auch nur einmal nen genauen Einblick in die Architektur gehabt zu haben, solltest du dich bei denen bewerben. Die können dich dann sicherlich gut gebrauchen, damit der nächste Chip der Knaller wird
Genau, eine Multiply-Add Instruktion wird als zwei Operationen gewertet.derNetZwerg schrieb:Sollte die Rechenleistung einer AMD HD6900 nicht nur halb so groß sein? ...
Oder liegt die Verdopplung an der Tatsache das "Multiply" und "ADD" als einzelne Operationen gezählt werden?
Zuletzt bearbeitet:
Busta Rhymes
Lt. Commander
- Registriert
- Dez. 2005
- Beiträge
- 1.575
Die 5870 ist zZ. die beste Wahl wie ich finde.
Die 6970 bietet 10% mehr Leistung für 100€ mehr an Preis! Muss nicht sein!
Die 6970 bietet 10% mehr Leistung für 100€ mehr an Preis! Muss nicht sein!
Pyroplan
Commander
- Registriert
- Juli 2007
- Beiträge
- 2.714
schon mal dran gedacht dass AMD das macht um den Chip günstiger in der Herstellung zu machen?
ist bestimmt kein Zufall dass man vorher immer von mehr Shadern ausgegangen ist.
Wahrscheinlich haben die sie noch reduziert damit sie mehr gewinn machen und preislich besser da stehen.
Wer will schon ne Graka die 600eur kostet? außer vllt die Enthusiasten. aber die meisten wollen ne schnelle Karte zwischen 100-250 eur. und das ist AMD völlig gelungen.
ich bin mir sicher die haben noch mehr in der Hand und zwar die shaderanzahl aus der Gerüchteküche, aber die werden wohl erst kommen wenn man kleiner fertigen kann, damit der Chip kleiner/günstiger/sparsamer ist.
Zumal die Karte auch nich annähernd 300W verbraucht wie teilw. auf einigen Folien zu sehen war, kann man davon ausgehen das noch mehr kommen wird.
ist bestimmt kein Zufall dass man vorher immer von mehr Shadern ausgegangen ist.
Wahrscheinlich haben die sie noch reduziert damit sie mehr gewinn machen und preislich besser da stehen.
Wer will schon ne Graka die 600eur kostet? außer vllt die Enthusiasten. aber die meisten wollen ne schnelle Karte zwischen 100-250 eur. und das ist AMD völlig gelungen.
ich bin mir sicher die haben noch mehr in der Hand und zwar die shaderanzahl aus der Gerüchteküche, aber die werden wohl erst kommen wenn man kleiner fertigen kann, damit der Chip kleiner/günstiger/sparsamer ist.
Zumal die Karte auch nich annähernd 300W verbraucht wie teilw. auf einigen Folien zu sehen war, kann man davon ausgehen das noch mehr kommen wird.
Nasenbär schrieb:Erstens ist Tausende was anderes als Tausend und zweitens ist der Veyron genau so ein Prestige Projekt der in der Entwicklung massig Geld verschlungen hat weil man Probleme hatte, ein Getriebe zu entwickeln, dass die extremen Belastungen aushält. Unterm Strich ist der Veyron ein Verlustgeschäft. Positiv ist da halt nur dass man das Image aufpolieren kann.
Nein, der Veyron ist kein Verlustgeschäft. Das ist dort von Anfang an ein Prestigeobjekt gewesen, die hatten nie eingerechnet damit Geld zu verdienen (und koennen sich das offenbar auch locker leisten).