News Neuer Chefwissenschaftler bei Nvidia

Hm, ist der freiwillig gegangen oder ist das erneute Aufholen von ATi Schuld daran?

Und welche Stellung hat man als Nvidia Fellow, weiß das zufällig einer?

Gruß,
[sauba]
 
[sauba] schrieb:
Komplettzitat entfernt *klick*

Ob dem so ist werden wir erst mit der ersten Architektur von Bill Dally erkennen. nV setzte mit David Kirk ja auf große komplexe Die. Offiziell will nV den Weg ja weiter so beschreiten, wenn sich daran jetzt was ändert könnte es durchaus am Aufhohlen von ATI und einem draus folgenden Umdenken bei der nV Spitze liegen.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt. Bitte Regeln beachten.)
Der Autor sollte vllt. einmal darauf achten, dass er den Namen nicht an jedem Satzanfang nennt.
 
Auf jedem Fall gebührt dem Herren mein tiefster Respekt. Was der alles geleistet hat......Wenn ich mal so weit bin, dann lest ihr hoffentlich auch von mir hier auf Computerbase.de:D:D:D
 
hofentlich werden die zukunftigen produkte von nvidia wieder besser(mit hilfe diese chefwissenschaftlers)
 
Die Stanford-Uni hat keinen "Informatik-Fachbereich", sondern eine Fakultät für Informatik (Department of Computer Science). Fachbereiche sind eine mehr oder weniger deutsche Erfindung und bezeichnen sehr kleine Fakultäten.
 
Ich denke mit dieser Entscheidung setzt Nvidia auf das richtige Pferd.

Grafikkarten sind längst mehr als High-Tech Spielzeuge geworden, und auch wenn man heute noch einen Großteil der Einnahmen mit der GPU als 3D-Spiele-Beschleuniger macht, wird sich das sicher schon in baldiger Zukunft ändern.

Ganze Serverfarmen und einige Supercomputer wollen mit GPU-Unterstützung aufwarten, und da will Nvidia natürlich vor der Konkurrenz seine Kunden bedienen.
 
Ich bin gespannt auf Rasterisierung vs. Raytracing Duell.
Delta Force war eine der ersten Spiele, welche sowas wie Raytracing benutzte.
Theoretisch hat RT gewisse Reize, aber in der Praxis wird es wahrscheinlich bei Tech-Demos noch Jahre bleiben. Wenigstens haben Chipentwickler den Richtigen Weg aufgeschlagen.

Raytracing wird zunächst Hand in Hand mit Rasteriesierung auf vereinheitlichten Grafikshadern werkeln.

Kann kaum noch erwarten, bis Raytracing von Applikationen wie Cinema 4D auf GPUs ablauffen wird. Hab die Stundenlangen Renderzeiten mit Global Illumination (Radiosity) langsam satt ;)

Grafikkarten sind längst mehr als High-Tech Spielzeuge geworden, und auch wenn man heute noch einen Großteil der Einnahmen mit der GPU als 3D-Spiele-Beschleuniger macht, wird sich das sicher schon in baldiger Zukunft ändern
oh wie recht du hast. besonders jetzt wo, Computerspiele mehr umsatz als die gesammte Filmindustrie macht (siehe News) werden die Umsätze von Nvidia und ATI hoffentlich steigen. Vergisst nicht, gute Umsätze und EInnahmen werden sicherlich in Technologie-Fortentwicklung gut angelegt, vielleicht gibt es dann weniger eifrieg auf den Markt geworfenen Flop-Chips aka GeF FX oder Radeon 2XXX
 
Zuletzt bearbeitet:
Ehre wem Ehre gebührt.
Ohne diese Pioniere würde der Fortschritt faktisch stillstehen.
Auch deshalb wäre öfter mal bei Beiträgen zur Hardwareenwicklung Zurückhaltung bei der Kommentierung geboten. Ich erinnere gern an Sätze wie:" Wer braucht denn eine Zweikern-CPU? Wer braucht 1000 MHz? Wer braucht den 1 GB Speicher bei einer Grafikkarte? Wer braucht denn eine 400 MB Festplatte?"....
 
Monatsgehalt:

Ja, das interessiert hier wohl so manchen. Zum Glück sieht man, dass die wahren Großverdiener die, die es durch eigene Kraft geschafft haben, ihr Geld nicht zum Fenster hinausschmeißen. Bei allen anderen, denen das Geld so zufällt genau das Gegenteil.

Bei allem Fortschritt im Grafikmarkt, der sicherlich beeindruckend ist, wäre auch mal ein geistiger Fortschritt der Gesellschaft notwendig. Dazu müßte man aber andere Bereiche fördern, die letzter Zeit fast eingetampft werden.....:freak:
 
ich finds nur ein wenig komisch,dass es einen maschinenbauer in die elektronik zieht und dann auch noch in so eine hohe position mit erfolg.


gruß
 
Hat Captain Kirk die letzten Monate die Arbeit verweigert? Immerhin ist nVidia nun inzwischen seit über 2 Jahren mit identischer GPU-Architektur am Markt, siehe Release der 8800. Für diese lauwarmen Neufassungen GeForce 9 und 2xx braucht man sicherlich kein Chefwissenschaftler...
 
Domski schrieb:
Auf jedem Fall gebührt dem Herren mein tiefster Respekt. Was der alles geleistet hat......Wenn ich mal so weit bin, dann lest ihr hoffentlich auch von mir hier auf Computerbase.de:D:D:D

Sorry aber man kann es auch übertreiben ... Der Kerl hat jedenfalls keine Krankheiten geheilt, 50,000Km² Urwald gekauft oder sich für den Weltfrieden eingesetzt und gegen den Welthunger gekämpft.
 
[sauba] schrieb:
Hm, ist der freiwillig gegangen oder ist das erneute Aufholen von ATi Schuld daran?
Ja genau .. wenn die Konkurrrenz mal wieder kurz eine Nasenspitze weiter vorne ist (zumal ja auch nur im Kampf um die schnellste Karte), müssen bei so einem Unternehmen natürlich direkt Köpfe rollen. :rolleyes:

Schinzie schrieb:
ich finds nur ein wenig komisch,dass es einen maschinenbauer in die elektronik zieht und dann auch noch in so eine hohe position mit erfolg.
Finde ich überhaupt nicht komisch. Gibt doch genug Quereinsteiger, die es weit bringen.
Wer ambitioniert ist, kann eh ((fast)) alles machen.
 
Zuletzt bearbeitet:
Zurück
Oben