News Intel zeigt „Smoke“-Grafikdemo auf Nehalem

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Über Intels kommenden Nehalem-Prozessor wird aktuell viel geredet. Kein Wunder, denn dieser wird die Core-2-Generation offiziell ablösen und man erhofft sich eine spürbare Leistungssteigerung von der nativen Vier-Kern-CPU. So richtig in Aktion zu sehen ist der Nehalem aber noch nicht.

Zur News: Intel zeigt „Smoke“-Grafikdemo auf Nehalem
 
Schreibfehler im ersten Satz, bei "aktuelle" gehört das zweite e weg, sonst hört sich das komisch an.

Das mit den Grafikkarten würd ich mal nicht so sehen, weil Grafikkarten weitaus leistungsfähiger sind als CPUs, zumindest im Thema Bilddarstellung, weil sie extra dafür gemacht wurden ;)
 
Zuletzt bearbeitet:
Kann mir irgendjemand sagen, ob es eine Anwendung gibt die 8 Threads unterstützt???
der prozi is doch vollkommen sinnlos..........

Bevor die Software Entwickler soweit sind das die Progz 8 Threads und mehr unterstützen, werden noch 2 winter vergehen!
 
@Sharkonn05

mhh stimmt. Es gibt keine einzige Anwendung die 8Threads unterstützt.



Mein Gott, es gibt mehr als nur Spiele auf dem PC...
 
Claus1221 schrieb:
Das mit den Grafikkarten würd ich mal nicht so sehen, weil Grafikkarten weitaus leistungsfähiger sind als CPUs, zumindest im Thema Bilddarstellung, weil sie extra dafür gemacht wurden ;)

Dafür wird ja Raytracing von Intel entwickelt. Schon mal ein Bild wo man die Unterschiede sieht von den zwei Verfahren (vom Aussehen). Die Bilder mit Raytracing sind viel besser.

Irgendwann wird sich das bestimmt auch durchsetzen. Da hätte dann NV ein ziemliches Problem.
 
Also interessant hört sich das auf jeden Fall an!

60.000 Partikeleffekte im Softwarerendering sind schon eine
beachtliche Leistung. Wobei er dafür ja absolut nicht vorgesehen war.
Man kann echt mal gespannt sein auf den Nehi...

Intel ist der Softwarentwicklung leider mal wieder Meilenweit vorauas.
Und das bleibt eben auch das Hauptargument wieder jegliche Nehalem-Euphorie.

@ Floletni
Ob das tatsächlich mit Raytracing mal kommen wird steht zwar außer Frage,
doch deine Hypothese, dass es sich "bestimmt" durchsetzen wird,
ist höchst zweifelhaft. Schließlich schreitet auch die Entwicklung der
Grafikkarten weiter voran. Erst Recht mit dieser "Rytracing-Bedrohung" im Nacken...

Denk' mal drüber nach. :o
 
Zuletzt bearbeitet:
BERBERJESUS schrieb:
@ Floletni
Ob das tatsächlich mit Raytracing mal kommen wird steht zwar außer Frage,
doch deine Hypothese, dass es sich "bestimmt" durchsetzen wird,
ist höchst zweifelhaft. Schließlich schreitet auch die Entwicklung der
Grafikkarten weiter voran. Erst Recht mit dieser "Rytracing-Bedrohung" im Nacken...

Denk' mal drüber nach. :o

Denkst du wirklich die entwickeln Larebee (oder wie das Ding geschrieben wird) um sonst. Und Larebee soll für Raytracing sein. Und Intel hat da schon seine Wege um es durch zu setzen. Und AMD wäre da auch nicht sauer drüber.
 
Gibt es eigentlich schon GigaFlop Zahlen für Intels Nehalem?? Nur als Vergleich zur Core2Quad.

mfg ordi
 
Raytracing dürfte sich mit ziemlicher Wahrscheinlichkeit (naja, hoffentlich :D) durchsetzen, weil das Verfahren sich ab einer gewissen Komplexität einer Szene (die wir mitlerweile erreicht haben) unheimlich lohnt. Außerdem sind damit sehr schöne Sachen möglich (bsp. Spiegelungen) und vor allem unheimlich einfach zu programmieren.

Natürlich gibts auch Nachteile, wie den sehr schwierigen Übergang zwischen der Rasterisierung und Raytracing, da beide Techniken grundverschieden arbeiten und es wenig Sinn macht sie irgendwie zu vermischen. Allerdings will der geneigte Spieler seins Spiele von vor 1-2 Jahren schon auf nem aktuellen Rechner spielen können... :(

Aber mal zum Thema: Ich glaube zwar nicht, dass der Nehalem ein schlechter Prozessor wird, aber ich möchte doch erst mal abwarten. Die Architektur könnte Intel im Endeffekt doch etwas Probleme bereiten, wie es bei AMD ja auch der Fall war. Vor allem der integrierte Speichercontroller ist da so ein Punkt, der durchaus für etwas Unwilen auf Seiten der Käuferschaft sorgen könnte. Man denke nur an die Kompatibilität.

Auch die Leistungsaufnahme mit Speichercontroller dürfte etwas steigen. Die Frage ist nur um wie viel.

Und die Grafikdemo halte ich für äußerst sinnlos. Wenn man ein Programm für eine CPU optimiert läuft es natürlich wunderbar. Man schaue sich nur die Konsolen-Spiele an. Des weiteren gibt es keinerlei Vergleichswerte. Wenn der Nehalem beim Release immer noch so gut darsteht: Herzlichen Glückwunsch Intel! Aber bis dahin würd ich erst mal abwarten und weiter auf die aktuelle Generation setzen.
 
Hmmm, also wird es in Zukunft nicht mehr so sein das der Rechner nach einem Jahr langsamer wird und man einen Neuen brauch, sondern der Rechner wird schneller weil nach und nach die Fähigkeiten der CPU von neuen Programmen besser genutzt werden (Multicore), haha.
Auch net schlecht ;)
 
So siehts aus, diesmal hinkt nicht die Hardware der Software hinterher, sondern genau umgedreht!!

Beispiel: Multicore/64 Bit Programme und OS
 
Denkst du wirklich die entwickeln Larebee (oder wie das Ding geschrieben wird) um sonst. Und Larebee soll für Raytracing sein. Und Intel hat da schon seine Wege um es durch zu setzen. Und AMD wäre da auch nicht sauer drüber.

Nö, umsonst sicherlich nicht. Die wollen im Grafikbereich eben auch mal den großen Reibach machen. Mit ihren IGP-Geschichten kommen sie eben nicht sehr weit.
Die alles entscheidende Frage ist aber die Reaktion der Grafikkartenschmieden.
Und die lassen sich auf Teufel komm raus nicht das Butter vom Brot nehmen.
Intel setzt sie mit ihrem Projekt gewaltig unter Druck. Das ist gut.

Wenn jetzt schon so eindeutig klar wäre, dass NV und ATI am Ende der technischen
Möglichkeiten angelangt sind, dann können bzw. müssten sie eigentlich sobald "Larrabee" (heißt doch eigentlich korrekterweise so, oder?) funktionstüchtig auf dem Markt ist, logischerweise dicht machen...

Als qualitativ hochwertiger Ersatz für integrierte Grafiklösungen
ist das Intel-Projekt zweifelsohne das elganteste und billigste
Nonplusultra für die Zukunft.

@ 14 & 15 über mir:
Es klingt zwar lustig, ist aber zur absoluten Realität geworden.
Die Zeiten in denen man immer gleich das Neuste haben
muss, weil im allgemeinen die Leistung enorm zunimmt
sind seit dem C2D erstmal vorbei.

Der kleinste Nehi kommt mit 4 Kernen + HT daher.
8 Threads parallel. Einfach Wahnsinn!
Und dieses Wahnsinn ist ja nichtmal schlecht gemeint...
Nur braucht's im Prinzip keine Sau.
Und bittebittebitte fangt nicht schon wieder mit euren
einzelnen Anwendungsgebieten für 8 oder mehr Threads an.
Darum geht es doch gar nicht!
Wir wissen alle, dass es für bestimmte Dinge sinnvoll ist.
 
Zuletzt bearbeitet:
Natürlich laufen Prorgamme die speziell für eine Architektur entwickelt wurden oder werden wunderbar auf selbiger. Bestes Beispiel war bis vor nicht all zu langer Zeit MacOS, welches wirklich an den PPC angepasst wurde und durch grandiose Stabilität bestach. Auch SUN entwickelt eigens direkt für den SPARK oder andere Architekturen - einzig und allein, weil man so in der Lage ist, wirklich effektiv zu arbeiten.

Intel hat einfach ein Tech-Demo geschrieben, welches zeigt, was bei Simultanem Threadmanagement möglich ist. Die Kunst ist wohl weniger Routinen zu schreiben, die Effekte anders oder besser ausführen, sondern einfach nur die Aufspaltung diverser Programmteile in verschiedene Threads. Allein Wenn die Phsyik aktueller Spiele unter Win einem anderen Core zugeordnet werden könnte, würde man vermutlich einiges an Mehrleistung verbuchen können. Dahin soll wohl das Augenmerk gelenkt werden. Denn Softwarewunder vollbringt Intel auch nicht. (Nehme ich mal stark an ^^)

Sonst finde ich das klasse, wenn die Softwareentwicklung in diese Richtung geht, dann hätte das sicherlich große Vorteile, weil die Effektivität massiv gesteigert werden könnte. Ich denke in den nächsten 2-3 Jahren hält Supercomputer Performance Einzug in den Mainstream PC markt. ^^ Nicht zu glauben.

Nunja, nur mal meine Meinung.
Gruß
 
Bei den jetzigen GPU sehe ich momentan die technischen Möglichkeiten erreicht. Bei diesen (G)X2 Varianten sieht man es ja.
Da sehe ich bei dem Projekt von Intel mehr Performencsteigerungen.

Zu den Grafikkartenschieden: man könnte doch so ein Prozzesor auch auf ein extra PCB basteln. So hätte man ach die Zukunft von den Herstellern gesichert.
 
Zuletzt bearbeitet:
@Floletni
Wenn es nach (G)X2 geht waren die CPU´s schon vor jahren am ende, den die heutigen CPU´s beruhen auch nur auf dem multicore Prinzip, genauso wie es die Grafikchipentwickler jetzt nachmanchen!!!
 
Zurück
Oben