News Nvidia knackt wieder die Umsatz-Milliarde

Status
Für weitere Antworten geschlossen.
@boxleitnerb
Na klar weis ich was gemeint ist. Aber ich weis auch das ich leichtes flimrnern und das nur selten vorziehe. Mir ist das lieber als das Matschige unscharfe bei NV meine Augen sehn das zummindest so. Und das ohne Brille.:) Und das die 570 auf dem fps Level von ner 6970 mit heutigen treibern liegt halt ich für ein gerücht. PCGH links interessieren mich null ich weis was ich von denen zu haleten habe.
 
Dass da ein Schärfeunterschied ist, halte ich für ein Gerücht. Das wird immer wieder behauptet, aber nie bewiesen. Und spätestens seit dem Cat 11.1a hat AMD nun ebenfalls (?) ein "matschigeres" AF im Treiberstandard.
Ich schätze an PCGH, dass sie Sachen auch mal nachgehen und den Mund aufmachen. Darüberhinaus sind sie die einzige Seite, die ich kenne, die ihre Benchmarks dermaßen ausführlich dokumentiert. Du magst ihnen einen Bias andichten, aber wenn es nunmal kritikwürdige Punkte gibt, darf man diese auch aufgreifen. Das hat mit Bias gar nichts zu tun :)
 
Also stimmt es doch - die Schere wird kleiner. Vergleich mal GTX 480 vs HD5870 - sowas erlebst du heute nicht mehr. Da klaffte eine deutlich größere Lücke (57% mehr Verbrauch bei 10% mehr Speed).
Die GTX 580 hat ja heute eine Ausnahmestellung, die belegt eine ganz eigene Leistungsklasse im singel GPU Segment. Also nicht so schlimm wenn die mehr zieht, weil konkurrenzlos. Und nein die Schere wird nicht kleiner, größer wird sie. Zwar nicht bei den schnellsten Karten, aber der Standard wird von AMD immer höher gelegt und NV kommt nicht nach.



Was also hat HT4U anders gemacht?
Testpacours ist sehr Vram schonend, also die HD 6950 2GB dreht Däumchen, vor allem der Vram. Weil solche Karte aber nicht fürs Ideln ausgelegt sind, fällt die Effizienz drastisch. CB und Tech Power up testen besser.
Noch dazu wurde ja der neue Wundertreiber schon erwähnt.

Im Übrigen betrifft der Performance-Schub nicht nur einige Spiele sondern ist generell, dass nur mal so erwähnt
http://www.techpowerup.com/reviews/Powercolor/HD_6870_X2/28.html
Kann ich bestätigen, meine obrigen Zahlen sind also hinfällig, Radeons sind noch effizienter als ich vorgerechnet habe.


Wo ist AMDs TESLA Pendant? Selbst auf den AMD FireGL Profikarten hagelt es bei wiss. Anwendung nur Ärger bis Unmöglichkeit.
Das frage ich mich auch schon seit Jahren: (Bin seit meiner 8800GTX GPGPU Fan und konnte das Potenzial schon immer sehen) https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/
AMDs Gegenstück zu Tesla dürfte wohl mit der HD 7000 und der auf GPGPU ausgelegen neuen Architektur rein schneien...
 
Zuletzt bearbeitet:
Es gibt auch 560er mit 2GB ;)
In dem Bereich, der für mich interessant ist (ab GTX 570 aufwärts) ist der Effizienzunterschied klar kleiner geworden im Vergleich zu den ersten 40nm Produkten, da gibts gar nix dran rumzudiskutieren. Es bestreitet ja keiner, dass AMD noch einen Effizienzvorteil hat, aber im Highend ist dieser kaum noch vorhanden.

Ach ja:
http://www.tomshardware.com/reviews/geforce-radeon-graphics,2977-11.html

Ich zocke übrigens nicht 24/7, mein Rechner idlet meistens. Das wird dann auch gerne vergessen. Dass die Radeons bei sehr hohen Auflösungen gut wegkommen, stimmt. Aber seien wir mal ehrlich: 1080p ist heute das Maß der Dinge, einen 27 oder 30 Zöller haben die allerwenigsten.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
[...]

Das frage ich mich auch schon seit Jahren: (Bin seit meiner 8800GTX GPGPU Fan und konnte das Potenzial schon immer sehen) https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/
AMDs Gegenstück zu Tesla dürfte wohl mit der HD 7000 und der auf GPGPU ausgelegen neuen Architektur rein schneien...

... die kommt zu spät! Aber besser spät als gar nicht, vielleicht endet dann die krankhafte Verschlossenheit der Treiber bezüglich der so wichtigen GL/3D Raster-ABIs, um OpenCL und dergleichen auch vermittels Opensource-Treibern und SDKs zu ermöglichen.

AMD hat in der Vergangenheit schlichtweg gelogen. Im Vorfeld der HD4000-Einführung, als das Unternehmen noch tiefrote Zahlen schrieb, verkündete man breit- und großmäulig, daß man die 3D Specs ALLER Chips offenlege werden, zumindest soweit, daß die OpenGL Treiber der X11 Suite damit umgehen können. Die Diskussion war lebhaft, man machte Freundensp¶unge ... AMD lieferte dann auch Informationen, bis zu den HD3000 Vorläufern, also den RV400 und RV500 Chips, konnte man Informationen von AMDs Website herunterladen. Es hieß, die RV600 Spezifikationen kämen noch ... Dann wurde es plötzlich still. Nichts passierte. Weiter verkündete AMD, daß zukunftige Produkte OpenCL-kompatibel seien - zu Zeiten der OpenCL 1.0-Spezifikation. Die Aussagen waren unpräzise, aber die internationale Fachpresse interpretierte diese so, als sei auch die kommende HD4000 Serie OpenCL fähig. Schließlich ist AMD maßgeblich, neben nVidia, bei der Definition des Standards mitbeteiligt gewesen. Dann kam sie, die HD4000 Serie und den Entwicklern scheint wohl die Galle übergelaufen zu sein, als sich herausstellte, daß es an einem E/A-Puffer von ca. 256 Bytes, der nicht schreib-, sondern nur lesbar war, gelegen habe, daß eben der RV600 Chip nicht ohne Probleme und größere Treiberanpassungen via OpenCL GPGPU-fähig gemacht werden könne. Zumal sind die Leistungen nicht entsprechend gewesen. Die Spielekinder merken sich solche Geschichten weniger, kaufen sie sich doch alle 6 Monate neuen Käse im Niedrigpreissegment. Aber wenn man auf drei Jahre im voraus planen muß und wertvolle Steuerresourcen für die wiss. Arbeit vernünftig und gewissenhaft ausgeben muß, ist daß ein Stachel, der tief sitzt und lange brennt. AMD Chips hatten von der rohen Rechenleistung schon immer die Nase vorne, stets eine breitere, GPGPU-taugliche Registerbreite. Aber diesen Vorteil hat man lange Zeit nicht genutzt. Heute sind es nVidia Karten, die eindeutig die dominante doppelt genaue Fließkommaarithmetik dominieren und AMD hat auf diesem Feld das Nachsehen. Die SP-Leistung ist vielleicht für geometrische Bildbearbeitung auf festen Rastern oder bei Filtern mit 32 Bit Farbtiefen sehr schnell, aber gerechnet wird mit doppelter Genauigkeit, in vielen Fällen sogar mit Quadroupel-Präzsision. Hier kann "Fermi" einfach mehr und sein Nachfolger soll pro Watt die dreifache Leistung der jetzt schon berauschenden DP-Leistung haben!

AMD hat sich erstmal einen Namen zu machen und durch die lange Verwahrlosung betritt man bei AMD Ödland. Das Unternehmen hat wertvolles Zukunftsterrain für das Geschäft verschenkt. Dabei hätte es wohl wenig Investitionen bedurft, um einfach die Entwickler mit Informationen, offenen Standards und einem Treiberpaket zu beglücken, daß nicht nur einige Systeme wie Windows und Linux bedient, und andere wichtige UNIX Systeme außen vor läßt. nVidia hat das erkannt und pflegt das Produkt nicht nur technisch, sondern liefert hervorragende Unterstützung. Man kann sich sogar mit interessanten Projekten bei nVidia um Hardwaregaben bewerben, wenn das Projekt interessant ist. So kommt man zum Beispiel, bei entsprechender Nennung nVidias, an eine potente TESLA Karte oder sogar derer zwei (M2050 zum Beispiel). Der Unterbau, also der Server, ist dann nur noch eine Kleinigkeit und schnell finanziert.

Also, es sind oftmals kleine aber essentielle Dinge, die ein produkt in Gut oder Schlecht trennen. Und nicht immer ist es die vordergründige Energieeffizienz. Denn ich bin der Meinung, daß ein Fermi unter Vollast weniger Pulver verscheißt als eine unter Vollast laufende FireGL ... der gleichen Leistungsklasse, wenn sie 24/7 rechnen müssen ...
Ergänzung ()

boxleitnerb schrieb:
Es gibt auch 560er mit 2GB ;) [...]

Aber dessen Speicheranbindung ist kastriert und schmäler! Und das kann entscheidend sein ...
 
Wo AMD zur Zeit Vorteile aufbaut bei GPGPU ist Open CL. Hier können sie AMD CPU und AMD Grafikkarte gleichzeitig rechnen lassen. Davon träumt NV zur Zeit noch, weil der Intel Open CL Treiber einfach nicht kompatibel ist. Das ist ein nicht zu unterschätzender Faktor wenn man zig tausend CPUs mit im Cluster hat. Da muss NV so schnell wie möglich nachziehen, bzw. Intel und NV schauen das ihre Open CL Versionen kompatibel werden. Wenn AMD dran bleibt bei der HD 7000 ist der Zug noch nicht abgefahren.


Wegen der AMD Marketing Geschichte und der theoretischen Flops: Darauf hätte man einfach nicht eingehen dürfen, egal was AMD als theoretischen Wert angibt. Zahlen sind ja nur Schall und Rauch. Wichtig ist was in der Praxis rüber kommt. Und wenn man schon so viel Geld ausgibt, muss man sich auch ordentlich informieren. Und da hat wohl der G80/G92 von Anfang an alles was AMD so baute weggefegt. In Sachen GPGPU konnten sie eigentlich nicht so viele täuschen... Insofern verstehe ich nicht ganz warum da ein Stachel tief sitzen sollte, hat man doch sowieso nichts geglaubt was die da von sich gegeben haben spätestens seit R600.


Und nicht immer ist es die vordergründige Energieeffizienz
Auch wenn ich Fan von effizienten GPUs bin musste ich das bei meiner Kaufentscheidung HD 6970 2GB v. GTX 580 3GB auch feststellen. Am Ende überwiegen andere Faktoren, die dann doch viel wichtiger sind.
 
Wow, eine News und drei Seiten komplett Offtopic-Kommentare ... Glückwunsch.:freak:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben