Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)
- Ersteller Lübke
- Erstellt am
- Status
- Für weitere Antworten geschlossen.
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
Die Quadros kommen in der Tat später als Geforces und Teslas, laut einer News von xbitlabs, die ich jetzt nicht wieder raus suchen möchte. Die sind aber auch nicht primär für GPGPU da, sondern für CAD-Zeuch...
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Tesla kommt q2 bis q3 könnte also nochmal länger dauern. Man wird sehen. Ich glaub aber kaum, dass AMD/ATI hier was im Köcher hat außer eventuell FireGL Karten, aber die sind ja wie die Quadros für das zuständig was silent oben schon gesagt hat.
Für GPGPU wird ATI so wie die Infos stehen so schnell nix bringen. Eventuell erst mit der neuen Architektur 2011. Weiß man denn schon was die neue Architektur bringen soll? Gerüchteküche?
Für GPGPU wird ATI so wie die Infos stehen so schnell nix bringen. Eventuell erst mit der neuen Architektur 2011. Weiß man denn schon was die neue Architektur bringen soll? Gerüchteküche?
S
Shurkien
Gast
@Schaffe
Daran hab ich nochnicht gedacht
Es gab/gibt ja immernoch das Gerücht das NV sich aus dem Gamingsektor zurückziehen will
Evt. gibt es da ja auch ein abkommen zwischen AMD und NV? Wer weiß.
Daran hab ich nochnicht gedacht
Es gab/gibt ja immernoch das Gerücht das NV sich aus dem Gamingsektor zurückziehen will
Evt. gibt es da ja auch ein abkommen zwischen AMD und NV? Wer weiß.
- Registriert
- Aug. 2007
- Beiträge
- 21.162
nvidia wird sich sicher nicht aus dem spielesektor zurückziehen.
die frage ist nur, was auf dauer wirtschaftlicher ist, einen chip für beide fachgebiete zu entwickeln und dafür die margen auf dem spielesektor riskieren oder zwei separate chips, was aber doppelte entwicklungskosten und deutlich höhere herstellungskosten für die profikarten bedeuten würde.
der fermi ist übelst teuer und suboptimal für den spielemarkt. imho wird nvidia die nächste version deutlich verschlanken. dazu kommt evtl auch noch ein shrink.
fermi ist eine neue architektur. die erste version war nicht so der kracher, bringt aber schon alle technologien mit sich. jetzt sind verbesserungen im sinne von sparsameren und wirtschaftlicheren nachfolgemodellen sinnvoll.
der schritt mit der neuen architektur steht ati noch bevor. sicherlich werden die nicht die gleichen probleme wie nvidia haben, aber nvidia hat dadurch bei der nächsten generation einen gewissen vorteil. das duell hd6k vs fermi2 ist somit vollkommen offen.
die frage ist nur, was auf dauer wirtschaftlicher ist, einen chip für beide fachgebiete zu entwickeln und dafür die margen auf dem spielesektor riskieren oder zwei separate chips, was aber doppelte entwicklungskosten und deutlich höhere herstellungskosten für die profikarten bedeuten würde.
der fermi ist übelst teuer und suboptimal für den spielemarkt. imho wird nvidia die nächste version deutlich verschlanken. dazu kommt evtl auch noch ein shrink.
fermi ist eine neue architektur. die erste version war nicht so der kracher, bringt aber schon alle technologien mit sich. jetzt sind verbesserungen im sinne von sparsameren und wirtschaftlicheren nachfolgemodellen sinnvoll.
der schritt mit der neuen architektur steht ati noch bevor. sicherlich werden die nicht die gleichen probleme wie nvidia haben, aber nvidia hat dadurch bei der nächsten generation einen gewissen vorteil. das duell hd6k vs fermi2 ist somit vollkommen offen.
Ich hoffe, dass AMD keine GPGPU karte bringt.
Denn diese ist kaum Vereinbar mit einer Gamer Karte.
Ich wäre entweder für einen 2. Chip der entwickelt wird (wahrscheinlich zu teuer) oder von einer reinrassigen Gamerkarte, welche evtl. etwas mit GPGPU Elementen aufgeppt werden, die nicht so viel zusätzliche Strom ziehen, bzw. die Karte im Gamingsektor leistungsfähig bleiben lässt.
Auf 2 Hochzeiten mit einem Chip zu tanzen finde ich gerade in der Green-IT Zeit nicht sinnvoll...
Während die Fermi nämlich im GPGPU Sektor wie zuhause sein wird, wird sie im Gaming Sektor Strom verbrauchen bis zum abwinken.
Das riesige GPGPU Design zollt eben seinen Tribut...
Denn diese ist kaum Vereinbar mit einer Gamer Karte.
Ich wäre entweder für einen 2. Chip der entwickelt wird (wahrscheinlich zu teuer) oder von einer reinrassigen Gamerkarte, welche evtl. etwas mit GPGPU Elementen aufgeppt werden, die nicht so viel zusätzliche Strom ziehen, bzw. die Karte im Gamingsektor leistungsfähig bleiben lässt.
Auf 2 Hochzeiten mit einem Chip zu tanzen finde ich gerade in der Green-IT Zeit nicht sinnvoll...
Während die Fermi nämlich im GPGPU Sektor wie zuhause sein wird, wird sie im Gaming Sektor Strom verbrauchen bis zum abwinken.
Das riesige GPGPU Design zollt eben seinen Tribut...
S
Shurkien
Gast
@Lübke
Und genau da wird es zur nächsten Gen. wieder richtig Interessant.
NV dürfte bis dahin Fermi _deutlich_ verbessert haben.
Und neue Architektur ist ja zumeist (nicht immer!) mit Problemen Verbunden.
Aber da AMD kein Wert auf GPGPU legt liegen wohl doch alle Karten offen..
Wiegesagt, wird sehr spannedn^^
Und genau da wird es zur nächsten Gen. wieder richtig Interessant.
NV dürfte bis dahin Fermi _deutlich_ verbessert haben.
Und neue Architektur ist ja zumeist (nicht immer!) mit Problemen Verbunden.
Aber da AMD kein Wert auf GPGPU legt liegen wohl doch alle Karten offen..
Wiegesagt, wird sehr spannedn^^
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@Jocotty: ich hoffe, dass ati auch gpgpu in ihren radeon einführt, damit es auch für uns verfügbar und bezahlbar wird. warum sollte das enorme potential uns endkunden vorenthalten werden? nur wenn auch ati gpgpu-fähig ist, wird software für den endverbraucher auch auf dauer auf die brachiale rechenleistung von gpgpu angepasst werden. genauso wie dual- und quadcoreprozessoren. im profibereich wird schon seit langem auf mehr als einen prozessor gesetzt. willst du auf dual- oder quadcorecpus verzichten, nur weil sie mehr strom verbrauchen als ein einzelner cpu-kern? ich denke nicht.
Naja, ich habe nichts gegen GPGPU, allerdings habe ich etwas gegen steigendem Verbraucht.
Die CPUs sind in den letzten Jahren auf eine Niveau geblieben und haben ihre Leistung trotzdem gesteigert.
Die Grafikkarten steigen mit dem Stromverbrauch momentan ins unermessliche.
Sollte Fermi einen ähnlichen Idle Verbrauch hinlegen wie eine HD5XXX Verbrauch hinlegen, dann bin ich auch für GPGPU.
Ich bin nur für GPGPU, wenn entweder
1. der Idle Verbrauch nicht steigt
oder
2. sich die diskrete Grafikkarte im Office Betrieb abschalten kann...
Die CPUs sind in den letzten Jahren auf eine Niveau geblieben und haben ihre Leistung trotzdem gesteigert.
Die Grafikkarten steigen mit dem Stromverbrauch momentan ins unermessliche.
Sollte Fermi einen ähnlichen Idle Verbrauch hinlegen wie eine HD5XXX Verbrauch hinlegen, dann bin ich auch für GPGPU.
Ich bin nur für GPGPU, wenn entweder
1. der Idle Verbrauch nicht steigt
oder
2. sich die diskrete Grafikkarte im Office Betrieb abschalten kann...
Um vernünftige Aussagen über Fermi und Evergreen machen zu können, sollte man die Architektur verstehen. Daher ein paar Klarstellungen:
Fermi
Die größten Änderungen gegenüber GT200 kommen primär den Spieler zugute. Das Parallisieren der Geomeotrieberechnungen und die Erstellungen von mehr als einem Dreieck pro Takt dienen ausschließlich dem Gamer. Dadurch wird die Möglichkeit gegeben, dass Spiele verstärkt die Geometrie steigern können. Z.B. durch Tessellation oder aufwendigere Modelle. Das Cache-System ermöglicht die Unterstützung von C++. Aber gleichzeitig realisiert es, dass mehr Daten auf dem Chip gehalten wird, wodurch Latenzen beim Holen von Daten verringert werden. Hilft z.B. sehr stark zum Beschleunigen von Tessellation, da Polymorph-Einheiten über das Cachesystem mit den SM kommunizieren können. Gleichzeitig kann nVidia die vorigen OnChip Speicher in einem riesigen vereinen und somit eine effizientere Nutzung ermöglichen. Im Bestfall hat man nun 3x soviel Texturcache als im GT200. Ein andere Beschleunigung geschieht bei Raytracing und Physik-Aufgaben. So kann GF100 Fluidberechnungen ergeblich schneller ausführen: 128k Partikel bei 140 FPS. GT200 schaffte nur 30k bei 30 FPS.
Evergreen
Evergreen-Familie ist genauso ein GPGPU "Chip" wie Fermi. Es ist vollständig CS5.0 und OpenCL1.0 fähig und hat mit Stream eine eigene nicht offene Sprache. Die DP-Leistung liegt auf dem Niveau von Fermi. Das nVidia mehr auf dieses Gebiet liegt, bedeutet nicht, dass AMD garnichts machen würde.
Fazit
Weder Fermi noch Evergreen sind ausschließlich auf einem Markt entwickelt wurden. Durch OpenCL und CS wird auch der Gamer in Zukunft verstärkt Effekte erleben, die durch GPGPU erzeugt bzw. beschleunigt werden. Wenn man GF100 auf einer Skala von 1-10 bezüglich seiner Gamerfähigkeiten einstufen müsste, kommt man mindesten auf eine 7. Persönlich sehe ich sogar eine 8. Evergreen liegt ebenfalls auf 8 Kurs. Es gibt kaum große Unterschiede und Teile des Chips, die ausschließlich auf GPGPU ausgerichtet sind und dem Gamer nicht zugute kommen, wie z.B. die DP Shader des GT200.
Fermi
Die größten Änderungen gegenüber GT200 kommen primär den Spieler zugute. Das Parallisieren der Geomeotrieberechnungen und die Erstellungen von mehr als einem Dreieck pro Takt dienen ausschließlich dem Gamer. Dadurch wird die Möglichkeit gegeben, dass Spiele verstärkt die Geometrie steigern können. Z.B. durch Tessellation oder aufwendigere Modelle. Das Cache-System ermöglicht die Unterstützung von C++. Aber gleichzeitig realisiert es, dass mehr Daten auf dem Chip gehalten wird, wodurch Latenzen beim Holen von Daten verringert werden. Hilft z.B. sehr stark zum Beschleunigen von Tessellation, da Polymorph-Einheiten über das Cachesystem mit den SM kommunizieren können. Gleichzeitig kann nVidia die vorigen OnChip Speicher in einem riesigen vereinen und somit eine effizientere Nutzung ermöglichen. Im Bestfall hat man nun 3x soviel Texturcache als im GT200. Ein andere Beschleunigung geschieht bei Raytracing und Physik-Aufgaben. So kann GF100 Fluidberechnungen ergeblich schneller ausführen: 128k Partikel bei 140 FPS. GT200 schaffte nur 30k bei 30 FPS.
Evergreen
Evergreen-Familie ist genauso ein GPGPU "Chip" wie Fermi. Es ist vollständig CS5.0 und OpenCL1.0 fähig und hat mit Stream eine eigene nicht offene Sprache. Die DP-Leistung liegt auf dem Niveau von Fermi. Das nVidia mehr auf dieses Gebiet liegt, bedeutet nicht, dass AMD garnichts machen würde.
Fazit
Weder Fermi noch Evergreen sind ausschließlich auf einem Markt entwickelt wurden. Durch OpenCL und CS wird auch der Gamer in Zukunft verstärkt Effekte erleben, die durch GPGPU erzeugt bzw. beschleunigt werden. Wenn man GF100 auf einer Skala von 1-10 bezüglich seiner Gamerfähigkeiten einstufen müsste, kommt man mindesten auf eine 7. Persönlich sehe ich sogar eine 8. Evergreen liegt ebenfalls auf 8 Kurs. Es gibt kaum große Unterschiede und Teile des Chips, die ausschließlich auf GPGPU ausgerichtet sind und dem Gamer nicht zugute kommen, wie z.B. die DP Shader des GT200.
P
Pickebuh
Gast
Also ich sehe die GTX470 als Favorit an.
Sie kommt mit nur 2x6pin Anschlüssen aus und kann daher nicht so viel Strom ziehen.
Ist aber trotzdem voll GPGPU fähig. Auch der Preis sollte sich noch in Grenzen halten da sie ja schließlich nicht die schnellste Karte ist und sich mit den günstigeren ATIs (hoffentlich günstiger werdenden) messen muß.
Sie kommt mit nur 2x6pin Anschlüssen aus und kann daher nicht so viel Strom ziehen.
Ist aber trotzdem voll GPGPU fähig. Auch der Preis sollte sich noch in Grenzen halten da sie ja schließlich nicht die schnellste Karte ist und sich mit den günstigeren ATIs (hoffentlich günstiger werdenden) messen muß.
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Shurkien schrieb:Aber da AMD kein Wert auf GPGPU legt liegen wohl doch alle Karten offen..
Wiegesagt, wird sehr spannedn^^
Kannst du nicht bitte endlich aufhören, immer so einen Unsinn zu blubbern?
Ergänzung ()
http://www.theregister.co.uk/2010/03/11/supermicro_otoy_render_cloud/
S
Shurkien
Gast
Also ich sehe von AMD bisher noch keinen GPGPU Chip
Tut mir leid
Tut mir leid
MountWalker
Fleet Admiral
- Registriert
- Juni 2004
- Beiträge
- 14.368
An sich geht OpenCL-Programmierung auch schon auf Radeon HD4000, wie dieser Mac-Pro-Test zeigt.
Jokener
Captain
- Registriert
- Nov. 2007
- Beiträge
- 3.594
Das Problem, das NVidia jetzt gerade bekommt, ist die mangelnde eigene Glaubwürdigkeit.
Die großen Firmen machen einfach nur sehr ungerne Geschäfte mit einer Firma, die erst falsche Informationen verbreitet und dann jeden Fehler im Endprodukt auf die Partnerfirmen abschiebt.
So wurde beispielsweise das große GPGPU-Projekt, das NVidia irgendwann letztes Jahr zusammen mit den gefakten Fermi-Karten präsentierte, zwischenzeitlich abgesagt.
Warum? Höchstwahrscheinlich weil die TDP pro Karte von 225W auf 275W erhöht wurde, die Taktraten und Rechenleistung nicht mehr dem Plan entsprachen und der Preis trotzdem nicht angepasst wurde.
Damit ist DAS Aushängeschild von NV gerade gestrichen worden, mit dem sie andere Leute davon überzeugen wollten auf Fermi/Tesla zu setzten.
Man bedenke, dass ein solches "Werbeprojekt" von NV schon mit billigen Karten subventioniert wird, weil es einen großen Marketingwert hat.
Jetzt sollen andere Firmen aber erheblich mehr zahlen als eine Firma, die schon die subventionierten Preise als unwirtschaftlich eingestuft hat?
Möööööööööööööp... Das war der Zonk.
Mit einer dramatisch überlegenen Rechenleistung pro Watt ist AMD hier meilenweit voraus.
Denn die HD5XXX Karten kann man alle über offene Schnittstellen ansprechen.
Damit kann auch eine tolle Kompatibilität mit C++ den Tag von Jensen (NV-CEO) nicht mehr retten.
Vor allem: Von den AMD Karten lässt man sich ein paar kommen, probiert sie aus und entscheidet dann ob es gut ist oder nicht.
AMD muss sicherlich noch lernen, wie man die Produkte besser vermarktet.
Aber da der Kram momentan so schnell verkauft wird wie sie ihn backen können, wird das erst zum tatsächlichen Launch von Fermi spannend.
Sorry, zu dem Zeitpunkt an dem Fermi verfügbar ist. Denn auch wenn die Greenboys auf der CeBit mir was anderes erzählt haben, zu meinem Geburtstag im Juni wird es noch keine vernünftige Verfügbarkeit geben.
Und AMD produziert mittlerweile schon lange, hat den Prozess (nicht das Stepping, nur den Prozess) von TSMC mittlerweile so gut unter Kontrolle, dass die AMD-Produtkionsrate NV auch Chipgrößenbereinigt mehrfach zerstören wird.
Ich hatte ja immer auf einen späten, etwas stomhungrigen aber sehr leistungsstarken Fermi gehofft.
Der hätte echt eine Chance gehabt in meinen nächsten Computer zu kommen.
Nur wenn er mehr Strom verbraucht (Strom ist egal, aber Strom macht Wärme -> Lärm), maximal die gleiche Leistung bringt, nicht verfügbar ist, ein mittleres dreistelliges Preisschild trägt und zusätzlich noch von einer Firma kommt, die in den letzten 24 Monaten nicht einmal freiwillig die Wahrheit gesagt hat anstatt ihre Produkte umzulabeln und als Neuheit zu verkaufen...
Wie gesagt... Das war der Zonk.
Jetzt wird es halt eine 5850 oder 5870 mit 2GB Ram und Support für Eyefinity. Congrats an AMD. Ein faires Produkt zu einem akzeptablen Preis.
So schwer ist es doch gar nicht.
Grüße vom:
Jokener
Die großen Firmen machen einfach nur sehr ungerne Geschäfte mit einer Firma, die erst falsche Informationen verbreitet und dann jeden Fehler im Endprodukt auf die Partnerfirmen abschiebt.
So wurde beispielsweise das große GPGPU-Projekt, das NVidia irgendwann letztes Jahr zusammen mit den gefakten Fermi-Karten präsentierte, zwischenzeitlich abgesagt.
Warum? Höchstwahrscheinlich weil die TDP pro Karte von 225W auf 275W erhöht wurde, die Taktraten und Rechenleistung nicht mehr dem Plan entsprachen und der Preis trotzdem nicht angepasst wurde.
Damit ist DAS Aushängeschild von NV gerade gestrichen worden, mit dem sie andere Leute davon überzeugen wollten auf Fermi/Tesla zu setzten.
Man bedenke, dass ein solches "Werbeprojekt" von NV schon mit billigen Karten subventioniert wird, weil es einen großen Marketingwert hat.
Jetzt sollen andere Firmen aber erheblich mehr zahlen als eine Firma, die schon die subventionierten Preise als unwirtschaftlich eingestuft hat?
Möööööööööööööp... Das war der Zonk.
Mit einer dramatisch überlegenen Rechenleistung pro Watt ist AMD hier meilenweit voraus.
Denn die HD5XXX Karten kann man alle über offene Schnittstellen ansprechen.
Damit kann auch eine tolle Kompatibilität mit C++ den Tag von Jensen (NV-CEO) nicht mehr retten.
Vor allem: Von den AMD Karten lässt man sich ein paar kommen, probiert sie aus und entscheidet dann ob es gut ist oder nicht.
AMD muss sicherlich noch lernen, wie man die Produkte besser vermarktet.
Aber da der Kram momentan so schnell verkauft wird wie sie ihn backen können, wird das erst zum tatsächlichen Launch von Fermi spannend.
Sorry, zu dem Zeitpunkt an dem Fermi verfügbar ist. Denn auch wenn die Greenboys auf der CeBit mir was anderes erzählt haben, zu meinem Geburtstag im Juni wird es noch keine vernünftige Verfügbarkeit geben.
Und AMD produziert mittlerweile schon lange, hat den Prozess (nicht das Stepping, nur den Prozess) von TSMC mittlerweile so gut unter Kontrolle, dass die AMD-Produtkionsrate NV auch Chipgrößenbereinigt mehrfach zerstören wird.
Ich hatte ja immer auf einen späten, etwas stomhungrigen aber sehr leistungsstarken Fermi gehofft.
Der hätte echt eine Chance gehabt in meinen nächsten Computer zu kommen.
Nur wenn er mehr Strom verbraucht (Strom ist egal, aber Strom macht Wärme -> Lärm), maximal die gleiche Leistung bringt, nicht verfügbar ist, ein mittleres dreistelliges Preisschild trägt und zusätzlich noch von einer Firma kommt, die in den letzten 24 Monaten nicht einmal freiwillig die Wahrheit gesagt hat anstatt ihre Produkte umzulabeln und als Neuheit zu verkaufen...
Wie gesagt... Das war der Zonk.
Jetzt wird es halt eine 5850 oder 5870 mit 2GB Ram und Support für Eyefinity. Congrats an AMD. Ein faires Produkt zu einem akzeptablen Preis.
So schwer ist es doch gar nicht.
Grüße vom:
Jokener
Alpenbruder
Lt. Junior Grade
- Registriert
- Juli 2009
- Beiträge
- 509
Es war doch schon lächerlich als Nvidia behauptete aus dem Spielemarkt ausztreten und mehr für Forschung zu entwickeln. Reine Marketingschikane. Man kann nichts mehr ernst nehmen.
Sonst schließe ich mich Jorkene voll an. Ich brauche Nvidia nur als Preisfäller für die ATI-Karten, da ich keine guten Karten zu einem vernünftigen Preis erwarte.
Nvidia wird ihre Karten sowieso teurer verkaufen als die von AMD/ATI egal ob die Leistung besser/schlechter ist.
Sonst schließe ich mich Jorkene voll an. Ich brauche Nvidia nur als Preisfäller für die ATI-Karten, da ich keine guten Karten zu einem vernünftigen Preis erwarte.
Nvidia wird ihre Karten sowieso teurer verkaufen als die von AMD/ATI egal ob die Leistung besser/schlechter ist.
Sgt.Speirs
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.416
Bitte Cuda nicht mit GPGPU verwechseln. Man kann auf AMD-Karten ebenso Berechnungen auslagern wie auf Nvidia-Karten.Shurkien schrieb:Also ich sehe von AMD bisher noch keinen GPGPU Chip
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 1.446
- Aufrufe
- 161.166