News Intel zeigt „Smoke“-Grafikdemo auf Nehalem

60.000 Partikeleffekte HAMMER!

Aber im Vergleich zu was? Wieviel Partikeleffekte "zaubern" andere CPUs.

Die zahl ist absolut nichtssagend :(
 
Wer Raytracing für den heiligen Gral hält und nur das Geschwafel von Daniel Pohl nachplappert alà "Vermischung beider Technologien ist sinnlos", der sollte sich mal mit dem Thema auseinandersetzen...
Als kleine Anregung: In vielen aktuellen Animationsfilmen wird sowohl Rasterizing wie Raytracing benutzt...
 
Zuletzt bearbeitet:
Aber wenn die zukunft der Multicore CPU´s only in Raytracing liegt, ist es doch Schwachsinn zu glauben das ein Normaler PC User sich so ein Ding holt!
Entweder holt sich der hardcore Gamer für Raytracing den CPU, oder die DUA´s weil ihnen bei Ebay wieder erzählt wird das 2.6GHz *8 Cores = 20.8GHz sind!!
(Egal ob 8 Cores aufm Die oder 4 davon Virtual, für die Krümelkacker!)
 
Zuletzt bearbeitet:
was hier mit raytracing ideen so durch die gegend geworfen wird. wirkliches authentisches raytracing in echtzeit für den consumer muss wohl noch ein wenig länger als bis zur nächsten cpu-generation von intel warten! rendert mal 'ne halbwegs komplexe szene in ner hohen auflösung auf eurem quadcore dann wisst ihr was raytracing bzgl. performance bedeutet ...
 
Sharkoon05 schrieb:
@Floletni
Wenn es nach (G)X2 geht waren die CPU´s schon vor jahren am ende, den die heutigen CPU´s beruhen auch nur auf dem multicore Prinzip, genauso wie es die Grafikchipentwickler jetzt nachmanchen!!!

Tja aber SLI und Crossfire gibt es schon seit einer Weile (glaube schon 4 Jahre lang). Und eine Grafikkarte besteht schon aus meheren "Kernen"- die heißen nur Shader. Und gegen den Doppel-GPU bin ich irgendwie etwas negativ eingestellt.
 
@Floletni
Es gibt auch bei den Prozessoren eine Art von SLI, nur wurden da 2 oder mehr CPU´s auf ein Board gesteckt!!
Und diese Technik ist nun wirklich älter als SLI!

PS: Und ausserdem red ich nich von den "Kernen" sondern der Central Processing Unit bzw der Graphics Processing Unit
 
Zuletzt bearbeitet:
@Sharkoon05

Multi Core CPUs sind nicht für Raytracing gedacht steht sogar groß im Text. Ihre multi threading Fähigkeit steigert allerdings gerade bei Raytracing die Leistung fast linear zur Anzahl der Kerne.

@ McNoise

Text lesen und dann verstehen -> Larrabee ist für Raytracing gedacht nicht dieser MultiCore.

B2T

Je nachdem wie komplex die Szene gerendert wurde und welche Effekte angewandt wurden eine durchaus beachtliche Leistung, aber was letztlich zählt werden wir frühstens mit den Tests der ES CPUs sehen falls es denn welche geben wird.
 
@Mike Lowrey ... ach nee - sag blos ... sag das den anderen mit feuchten raytracing-träumen hier ...
 
http://www.heise.de/newsticker/IDF-...sung-fuer-Desktop-PC-Nehalem--/meldung/105947

Hoppla, und wie sich bei den Phenoms alle über die 130 Watt TDP aufgeregt haben ^^ Intel scheints trotz kleinerem Prozess, aber mit Speichercontroller in der CPU etc. auch nicht besser hinzubekommen ;-).

naja einfach abwarten was da so kommt...

zum Thema Larabee: Ich hatte das so verstanden, als sollten da noch 2008 erste Karten von rauskommen, allerdings nicht als Raytracing-Karten, sondern als simple High-End Gamer Karten!?
 
Floletni schrieb:
Dafür wird ja Raytracing von Intel entwickelt. Schon mal ein Bild wo man die Unterschiede sieht von den zwei Verfahren (vom Aussehen). Die Bilder mit Raytracing sind viel besser.

Irgendwann wird sich das bestimmt auch durchsetzen. Da hätte dann NV ein ziemliches Problem.
Wieso?Wo steht denn,daß Cpus für Raytracing besser geeignet sind als Grafikkarten?
 
Zuletzt bearbeitet:
Aber einen Zusammenhang zu Raytracing gibt es hier nicht zufällig, oder doch?

Immerhin will Intel doch daran arbeiten. Und ohne Raytracing würde ich den Sinn nicht sehen, warum Intel mit anspruchsvoller Grafik direkt auf der CPU hantiert.
 
florymonth schrieb:
Wieso?Wo steht denn,daß Cpus für Raytracing besser geeignet sind als Grafikkarten?

Das steht nirgend wo, aber Grafikkarte sind dafür zu spezialisiert. Meiner Meinung nach. Und wie oben schon gesagt ist skaliert es mit mehr Kernen besser. Und bei den Grafikkarten kosten 4 Kerne ziemlich viel Strom, kosten viel Geld und erzeugen viel Wärme. Ein Quad kann man schließlich für unter 200 € haben.
 

Mit Hilfe neuer Algorithmen will die Universität des Saarlandes die Berechnungszeit eines Strahls auf der CPU auf 1000 Takte reduziert bekommen haben. An der zweiten Front, einer GPU-Lösung (via CUDA auf einem G80) koste die gleiche Berechnung zwar etwa 15000 Takte, die Performance sei der CPU trotzdem um Faktor 2 bis 8 überlegen.
http://www.3dcenter.org/artikel/2007/03-31.php

Raytracing auf Cpus scheint also doch nicht wirklich vorteilhaft zu sein...
 
Zuletzt bearbeitet:
Der von Sven Woop entwickelte Echtzeit-Raytracing-Chip erzeugt interaktiv und fotorealistisch dreidimensionale Grafik. Schon dieser erste, nach Angaben des Doktoranden vollständig funktionsfähige, aber noch langsame Prototyp des Chips liefert eine größere 3D-Grafikleistung als mehrere PCs zusammen. Der auf der CeBIT gezeigte FPGA-Prototyp mit nur 90 MHz Taktfrequenz erreichte bereits die drei- bis fünffache Raytracing-Leistung einer Pentium-4-CPU mit fast 30-fach höherem Takt. Damit können auch große Modelle mit vielen Millionen Bildpunkten in Echtzeit dargestellt werden, versehen mit physikalisch korrekten Schatten und Reflexionen.
http://www.gamestar.de/community/gspinboard/showthread.php?t=114025

Spezialisierte Chips machen offenbar weiterhin Sinn.
 
Zuletzt bearbeitet:
Floletni schrieb:
Dafür wird ja Raytracing von Intel entwickelt. Schon mal ein Bild wo man die Unterschiede sieht von den zwei Verfahren (vom Aussehen). Die Bilder mit Raytracing sind viel besser.

Irgendwann wird sich das bestimmt auch durchsetzen. Da hätte dann NV ein ziemliches Problem.

und eh es so weit ist vergehen 2 - 3 jahre (bis man kleine erfolge hat). bis dahin haben grafikkarten eine rechenkapazität von 5 - 10 teraflops (wir wollen mal großzügig sein). und dann kommt intel daher und meint ihr chip schaffe raytracing? lol, guter witz :D wenn sie echtes raytracing in mindestens full hd (1920x1200) und mindestens 60 fps schaffen, dann bin ich schon beeindruckt. quake 3 raytraced brauch auf 1280x800 ja schon 4 cpus (4 quads - 16!!! logische kerne; war doch so in der drehe oder?!).

BERBERJESUS schrieb:
Ob das tatsächlich mit Raytracing mal kommen wird steht zwar außer Frage,
doch deine Hypothese, dass es sich "bestimmt" durchsetzen wird,
ist höchst zweifelhaft. Schließlich schreitet auch die Entwicklung der
Grafikkarten weiter voran. Erst Recht mit dieser "Rytracing-Bedrohung" im Nacken...

Denk' mal drüber nach. :o

das empfinde ich genauso. wenn raytracing erstmal möglich ist (wenn die welt bis dahin nicht schon untergegangen ist ;)), wird selbst dann nicht jeder einen raytracing fähigen rechner haben. dafür werden grafikschmieden sicherlich nicht so gut wie 2 spiele entwickeln, nur damit 1 fotorealistisch aussieht und 1 "normal" gerendert.



ich persönlich finde die raytraced bilder nich wirklich der aktuellen grafik überlegen. ok, spiegelungen und all das sehen schon nett aus... aber wo sieht ein cod 4 oder unreal tournament 3 nicht gut aus? fotorealismus gut und schön, dafür brauch man aber auch gute models (wenn man es mit raytracing vergleich will, dann doch schon bitte 10.000+ polygone) und ebenso hochwertige texturen (2.048x2.048 mindestens). wieviel rechenleistung brauch man dann dafür? ;) vielleicht mal als vergleich: die models in gran turismo 4 enthalten 1500 polygone ca. (finde grad absolut keine quelle, aber ich hab davon mal was gehört vor etlichen jahren - gt 5 bietet glaub ich 5000 pro model). und ich glaube jeder weiß wie "schlecht" die ps2 in rechenkapazität ist (im bezug zu heutigen pc's).

wenn man realistisch sein will und den aktuellen fortschritt beobachtet, dauert es mindestens noch 10 jahre. außer es kommt ein 2. albert einstein daher und wirft einen prozessor auf den markt der alles bisher gesehene in den schatten stellt (was ich nicht glaube). :D
 
wenn intel durchzieht was die vorhaben kann ich mir schon vorstellen das wir mit der 2ten architektur nach dem nehalem, also der nächsten großen änderung an der architektur, die leistung für einigermaßen effektives raytracing ausreicht, zumal raytracing ja entwicklungstechnisch einen großen vorteil hat, da es noch in den kinderschuhen steckt und somit noch viel entwicklungspotenziel hat meiner meinung nach
 
@dpsbass - ja wenns so weitergeht wird wohl der Cache wieder aus dem Prozessor verbannt - wenn Intel erstmal merkt welche
Vorteile die direkte Verbindung von CPU und Speicher bringt, werden die Caches wieder kleiner.AMD wollte ja auch mal beim Opteron 64 8MB Cache verbauen-hat aber eingesehen das es nicht viel bringt - so ähnlich seh ich auch die Phenoms @45 nm ,die ganz ohne L3 Cache auskommen sollen
 
Sharkoon05 schrieb:
Kann mir irgendjemand sagen, ob es eine Anwendung gibt die 8 Threads unterstützt???
der prozi is doch vollkommen sinnlos..........

Bevor die Software Entwickler soweit sind das die Progz 8 Threads und mehr unterstützen, werden noch 2 winter vergehen!
Man man man ... jedesmal wenn über die neueste Prozessor-Generation berichtet wird, kommt wieder mindestens einer, der hier so einen überflüssigen und hochgradig falschen Schwachsinn ablassen muss.

Wenn man keine Ahnung hat, einfach mal Finger still halten.



Es benutzt bereits heute eine ganze Palette an Programmen mehrere Kerne aus, selbst ein paar Spiele (was ja das einzige zu sein scheint, was viele User hier kennen ... wir sind hier aber auf Computerbase, nicht auf Gamebase) tun dies.
Wenn man selbst nicht mehr CPU-Power braucht, ist das ja schön und gut. Dann kann man sich freuen. Aber diese ignorante Annahme, allen anderen würde es genauso gehen, ist nunmal absoluter Quatsch.
 
Zuletzt bearbeitet:
@Konti
Und du glaubst auch, das wenn dein Quadcore 25% auslastung bei nem Prog hat, dass das sich auf mehrere Threads aufteilt, was?
Ausser Videorenderprogramme fallen mir recht wenig programme ein die mein DualCore jemals ausgelastet hätten!

Aber anstatt mich hier für Dämlich abzustempeln kannst du mir keine trifftigen Beweise oder Gründe nennen, oder?
 
Zurück
Oben