News Nvision: Zukünftige GPUs ohne Spezialisierung

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.644
Die Nvidia-Hausmesse Nvision beschäftigt sich mit der aktuell für „Visual Computing“ vorhandenen Software sowie Hardware. Nichtsdestotrotz zeigt man auch einen kleinen Teil der Zukunft, die, nach der eigenen Meinung, GPUs wahrscheinlich bevorstehen wird. Dies sind jedoch – wie man direkt zu gibt – nur Vermutungen.

Zur News: Nvision: Zukünftige GPUs ohne Spezialisierung
 
jo gell :D in echt fehlt mir tiefenunschärfe á la gothic 3 ... ne spaß, besser als die realität wäre aber au irgendwie kacke oO


jo aber die gezeigten bilder auf der präsentation schauen gut aus ... abwarten , abwarten !
 
mal sehen wie es in 5jahren sein wird
 
und wie sieht dann bitte diese "Über-Realiät" aus? Manche Leute hier drin scheinen eine sehr rege Einbildungskraft zu besitzen, geradezu "übermenschlich":D
 
Wenn es in 5 Jahren noch Nvidia gibt, oder passiert das gleiche wie 3DFX ???
 
da_deus schrieb:
besser als die Realität... nun überlegt mal... ;)

Kennst du den Begriff "Ironie" ;)

Nur sollte solangsam mal auch bei den GPU's der Trend nicht nur Richtung so viel Leistung sein, sondern auch mal Energiesparen im Vordergrund stehen.

Und zwar auch bei den High-End-Karten. Wenn man mal überlegt: Vor 5 Jahren hatten Grakas noch einen Kühler, den man kaum sieht oO

Und in 5 Jahren wären sie dementsprechend so groß, wie heute der halbe Tower (vill. ein bisschen übertrieben ;))

Ne, es sollte da wirklich mal ein anderes Konzept her....
 
@allg. Skepsis gegenüber "...besser als die Realität":

Seid doch mal etwas kreativ - ich hoffe sie schaffen es und bringen dann ein weiteres Endlos-Spiele wie WoW raus, dann gibt's endlich nie wieder Stau auf der Autobahn, Warteschlangen et cetera. Yeeha!

PS: Beitrag kann ein Spoiler sein.
 
Ich finde auch man sollte sich mehr auf die Sparsamkeit konzentrieren, das schont den Geldbeutel und die Ohren ...

Im übrigen bedeutet besser nicht gleich Qualitativ ausgereifter / entwickelter. Ich kann ja auch die Sprites aus Ultima Online besser finden als die Grafik wenn ich aus dem Fenster schaue. ;)
 
Die Realität verbessern ist wohl kaum möglich bis auf ein paar cheats ;)
Aber so nen Spiel wie WoW mit den ganzen Effekten , Partikel wäre cool mal in HQ zu sehen wie in nen Film.
Dann wäre es auch möglich Märchen für Kinder als Spiel so fazinierend umzusetzen, dass selbst die ein Verkaufsschlager werden ;)

Die Rechenleistung ist ja schon extrem,
wäre cool wenn es dann nur für Blender, C4D entsprechende Software gibt um es auch zu nutzen.
Alleine Heute ein 3D Editor der alle Features der Grafikkarten nutzt wäre mal wünschenswert...
 
Spezialisierte Einheiten Sind doch eigentlich besser als mehrzweck oder irre ich mich da?
 
Grafik besser als Realität kein Problem nimmt man den Monitor weg und Bilder direkt ins Hirn dann kommen wir auch davon weg nur auf nem kleinen Punkt scharf zu sehen sondern können Scharf komplette Landschaften betrachten ;)
 
Stichwort: 4D :D

Wer weiß wie hoch 2013 die Energiekosten sind. Entweder, es wurde dann bereits eine alternative Möglichkeit gefunden, Strom zu erzeugen (Weiterentwicklung der Solartechnik z.B.) oder es wird nichts neues gefunden und die Kw/h kostet uns 1€. Dann will ich mal die sehen, die noch eine High-End GPU in ihrem Rechner verbaut haben (vorausgesetzt, es wird nichts enwickelt/erfunden, was den Energiebedarf der GPU's senkt, was ich imo aber auch bezweifle).
 
naja alles schön und gut, aber der wirklich nächste große schritt ist richtige 3D. Ich will ein Holodeck :)
 
Weil die CPU zu schwach war entwickelte sich daraus die Soundkarte/ Grafikkarte/ Physikkarte, wodurch der PC schneller wurde und nun will und nVidia sagen, dass die CPU eh schon sooo flott ist, dass spezialisierte Hardware unnütz ist und man mit einer GPGPU/ zweiten "CPU" besser dran ist?
 
Find ich exterem spannend :) und freu mich auf die Zukunft...

P.S. Schöne news, immer weiter mit der nvision CB ;)
 
GPU Spezialisierung abschaffen... schonmal versucht, ein aktuelles Spiel von der CPU rendern zu lassen? Kleiner Tipp an Nvidia: lasst mal den CPU-Benchmark im 3DMark 06 laufen -.-

Der große Vorteil einer GPU ist ja gerade, dass sie simple Aufgaben X-mal schneller als eine CPU berechnen kann. Dass sich diese Aufgaben nicht nur auf 3D-Grafik beschränken, haben Projekte wie CUDA und GPU-PhysiX gezeigt, nur ist dazu keine Änderung an der Hardware nötig. Wenn für GPUs ein so gewaltiger Befehlssatz wie für CPUs geschaffen wird, dann haben wir nichts anderes als eine Zusatz-CPU mit anderer Architektur, die uns beim Rendern aber so ziemlich gar nichts hilft, da sie genauso lahm wie eine aktuelle CPU wird.
 
Keine Fixed-Function-Units? Ist es nicht gerade das, was die etablierten GPUs in Zukunft einem gewissen Produkt unter der Bezeichnung "Larabee" voraus haben sollen? Geht sicherlich, hat ja auch der R600 mit seinem AA-Workaround gezeigt. Ich gehe aber eher "nur" von einer Reduzierung des Anteils der FFUs am Gesamtchip aus.

Bei der Prognose fehlt allerdings die Entwicklung der Leistungsaufnahme und die entsprechende Hochrechnung für 2013...naja, vielleicht gibt es ja bis dahin Fusionsreaktoren... :D
 
Zurück
Oben