News Weitere Impressionen von „Larrabee“

Setzt sich niemals durch, NOCH EINEN zusätzlichen renderpfad, der für eine einzige neue Architektur funktioniert die sehr lange brauchen wird bis er überhaupt einigermaßen verbreitet ist, das wird sich kaum ein Entwicklungsstudio leisten wollen. Eigentlich eine Totgeburt solange es nicht von allen großen Firmen zusammen gebaut wird.
 
Na, dann zeig mir mal die Darstellungsqualität und Detailtreue mit Polygongrafik!
Es geht hier um realistische Ergebnisse, die Grafikkarte für den Endanwendermarkt ist ein Nebenprodukt, obs einschlägt oder nicht ist wohl Nebensache.

Soll wohl eher eine reine Co-Prozessorkarte werden...die als Variante einen Displayausgang hat :)
Die Karte passt doch bestens zu DX 11, das PhysX/CUDA wohl verdrängen wird mit der Compushade Geschichte.
 
Die Karte passt doch bestens zu DX 11, das PhysX/CUDA wohl verdrängen wird mit der Compushade Geschichte.
du schmeist da aber eine ganze menge durcheinander. dx11 kann physx nicht verdrängen, aber physx kann evtl auch über dx11 ausgeführt werden, wenn nvidia eine implementierung vornimmt. und ob die ergebnisse der physikalischen berechnungen nun durch raytracing oder eine x-beliebige andere darstellungsform visualisiert wird, spielt auch keine rolle.

ergo kann dann z.b. eine dx11-karte in batman die physx-effekte in raytracing darstellen. das eine schließt das andere weder ein noch aus.
 
Marius schrieb:
Na, dann zeig mir mal die Darstellungsqualität und Detailtreue mit Polygongrafik!
Es geht hier um realistische Ergebnisse, die Grafikkarte für den Endanwendermarkt ist ein Nebenprodukt, obs einschlägt oder nicht ist wohl Nebensache.

Soll wohl eher eine reine Co-Prozessorkarte werden...die als Variante einen Displayausgang hat :)
Die Karte passt doch bestens zu DX 11, das PhysX/CUDA wohl verdrängen wird mit der Compushade Geschichte.

Intel verfolgt ein komplett anderes Prinzip als Nvidia/Ati. Wieso sollten Spieleschmieden(habe mir jetzt nur den zweig rausgepickt, weil für andere Anwendungen macht RT erstmal für den Privaten Haushalt keinen sinn) eine Technik einbauen, für die es keine passende Hardware am Markt gibt? Der Großteil wird bei ATI/Nvidia bleiben und solange die beiden Großen nicht auch auf RT setzen wird Intels Larrabee wohl kein Durchschlagender Erfolg. Die Softwareentwickler wollen ja immerhin auch Geld verdienen ;)
 
Brutos schrieb:
Setzt sich niemals durch, NOCH EINEN zusätzlichen renderpfad, der für eine einzige neue Architektur funktioniert die sehr lange brauchen wird bis er überhaupt einigermaßen verbreitet ist, das wird sich kaum ein Entwicklungsstudio leisten wollen. Eigentlich eine Totgeburt solange es nicht von allen großen Firmen zusammen gebaut wird.

Sag nicht Hopp ! Intel hat Geld, sehr viel Geld und wenn die wollen können die paar Spenden an Entwicklerstudios Zahlen ;).

Mir wäre es lieber wenn S3 Graphics der dritte ernste Konkurrent wäre. :(
 
Wenn das "Wasser" in dieser Beispielsszene flüssiges Metall ist, bin ich mit der Spiegelung einverstanden. Sonst ist sie einfach zu extrem und verzerrt zu stark.

Im Vorfeld des IDF war durchaus davon ausgegangen worden, dass der Chipriese endlich die Katze aus dem Sack lassen würde
Davon geht man doch schon seit längerem aus. Ich glaube Intel hat sich da etwas übernommen.
 
das wären aber eine ganze menge spenden, um das großflächig zu verbreiten. ;)
damit sich ein wechsel auf eine intel graka zu rechtfertigen müsste schließlich die mehrheit der spiele auf rt basiert sein. und vergiss nicht, dass man diese spiele auch auf einer ati oder nvidia spielen könnte, die in den übrigen spielen eine intel larrabee-karte ziemlich alt aussehn lassen dürften.
ergo reichen vermutlich 50% marktanteil der rt-spiele nichtmal, um den markt rumzureißen...
 
Weder hübsch, noch flüssig. :/
Nicht sehr beeindruckend bisher.

Ray tracing kann genau so Polygone nutzen.
Das hat damit nichts zu tun. Es werden für
Lichtablenkungen und Verdeckungen nur der
Verlauf von Strahlen verfolgt. Oft, bei meinem Renderer
zum Beispiel, kann man sogar an geben, wie viel
Ablenkungen berücksichtigt werden sollen.

Bei 4 Ablenkungen kommt mein Athlon X2 auf ca. 0,002 FPS. :lol:

Den bisherigen Angaben zufolge besteht Larrabee aus hunderten
PentiumI (eins) Kernen.
 
Zuletzt bearbeitet:
Whoozy schrieb:
Mir wäre es lieber wenn S3 Graphics der dritte ernste Konkurrent wäre. :(

S3 gibt es seit 1989 und sie fertigen diskrete Grafikkarten.
Ich finde, dass diese Firma schon jetzt ernstzunehmend ist. Immerhin haben sie in den letzten Jahren seit 2003 stark aufgebaut.
 
Wow. Immernoch QuakeWars? Wie lange basteln die da noch rum? Absolut lächerlich.


Und was sagt die Presse?:

"Mit so viel Vorschusshype, der nun auch von Intel angefacht wurde, war das erste öffentliche Auftreten von Larrabee umso ernüchternder. Die wenigen bewegten Objekte der Szene ruckelten über die Leinwand, was erkennbar nicht am Beamer lag. Schon die im Juni gezeigten Vorführungen desselben Spiels, und dabei noch auf nur acht CPU-Kernen, waren wesentlich eindrucksvoller. "

"Die erste öffentliche Vorführung von Larrabee verlief jedoch genauso enttäuschend, wie viele Kritiker sie erwartet hatten. Intels Chefwissenschaftler für Grafikforschung, Bill Mark, zeigte eine statische Szene aus dem auf Raytracing umgesetzten "Quake Wars: Enemy Territory". Daniel Pohl, von dem der Code maßgeblich stammt, durfte die Demonstration nicht selbst leiten.
"
http://www.golem.de/0909/70000.html


"Die Raytracing-Demo zeigte übrigens nur eine klassische Szene aus ID-Softwares Spiel »Quake Wars: Enemy Territory«

Die Hardware dazu war offenbar speziell im Vorfeld angefertigt worden. Intel-Mann Sean Maloney zeigte aber nur diese einzige Demonstration. Hübsch.."
http://www.theinquirer.de/2009/09/23/larrabee-irgendwie-idf2009-intel.html




"Wie jetzt die Kollegen von Bright Side Of News berichten, soll hinter dem Weggang Gelsingers das von Fehlern überhäufte Larrabee-Projekt stehen. Übereinstimmend wird gemeldet, dass Larrabee Gelsingers Baby wie einst die Netburst- oder Core-Mikroarchitektur im CPU-Desktop-Segment war."

"Besonders verärgert soll Intel darüber sein, dass Gelsinger schon vor Monaten durch provokante Äußerungen mit Nvidia in direkte Konkurrenz gezogen sei, ohne je etwas vorzeigbares aufbieten zu können. Nach letzten Gerüchten mussten für den ersten, verkaufsfertigen Larrabee bereits vier Chips herhalten und es soll bereits sieben verschiedene Steppings gegeben haben. Frühestens ist wohl Ende nächsten Jahres mit ersten Larrabee-Karten zu rechnen."

http://hardware-infos.com/news.php?news=3205



Was sagt uns das? Larrabeetanic
 
@Respekt: aber der technische rückstand wächst von jahr zu jahr. s3 kann froh sein, wenn sie mit der untersten office-karte von ati und nvidia schritt halten kann, allerdings sind diese karten bei ati und nvidia nur ein kleines billiges nebenproduckt und bei s3 das "highend" und hauptprodukt. ergo kann s3 auch nicht im preiskampf schritt halten...

ich habe seit der savage IV keine s3 mehr gehabt und im mom siehts auch nicht so aus, als wenn sich das auf absehbare zeit wieder ändern wird. bis s3 meine alte 3850 eingeholt hat, ist diese für spiele längst unbrauchbar geworden...
bedauerlich aber wahr...
 
Geil, das ist "Terminator 5 - The Game" und nicht Quake Wars!!!

Böser Fehler Computerbase!!!

Man beachte die von den den Rebellen gelenkten Apaches und vor allem der unglaublich

fetzig animierte RIESEN T-1000, der sich als Ozean tarnt. Ist schon gekauft das game...


Frage mich aber, wieso ATI/AMD heute die 5870er vorgestellt haben...bei der Konkurrenz

ist eigentlich nur noch n Insolvenantrag drin :(


Meine Glaskugel sagt:

Larrabee = Schwarzer Schneemann in einer KKK-Sauna :D
 
edmih23 schrieb:
Auf welchem Grafikkartenniveau befindet sich denn larrabee unegfähr?
Also ich meine, ob larabee auf dem Highendmarkt mithalten kann.
Was meint ihr?
auf ht4u stand, dass die in etwa so schnell wie ne GTX 285 wird. momentan hat man aber scheinbar noch massive probleme mit der energieeffizienz
 
Man sollte sich doch lieber die reflektionen im Wasser anschauen. Hab sowas in einem game noch nicht gesehen.
Das Wasser selber ist aber nicht so schön.
 
Ich bin auf diesem Gebiet nicht so bewandert, aber wäre es nicht technisch möglich Raytracing durch die Shader einer herkömmlichen Grafikkarte zu realisieren? Nicht mit der aktuellen Generation, aber in mitlerer Zukunft? Deren Leistung steigt seit Generationen schließlich explosionsartig an. Und wenn wir schon beim Thema sind: Beschleunigung von Voxel Engines durch die Graka? Ich habe neulich mal wieder einige ältere Games mit Voxel Grafik gespielt. So natürlich aussehendes, aus einem Guss bestehendes Gelände wie im 10 Jahre alten Outcast gibts auch in Crysis nicht...schade das diese Engines ausgestorben sind.
 
Zuletzt bearbeitet:
Ihr habts leider alle nicht verstanden, weil es von den ganzen Newserstellern schon faltsch verstanden wird. Diese Demo sollte nicht irgendeine futuristische "Grafikpracht" demonstrieren, sondern lediglich zeigen, dass das System in der Lage ist Raytracing Effekte einigermaßen flüssig darzustelln. Die erste Generation von Larrabee selbst ist von Intel überhaupt nicht dafür vorgesehen Raytracing Spiele zu packen. Bei der Version von E.T.Q.W. geht es auch nicht darum eine neue Top Grafik zu entwickeln, es geht nur darum, die Effekte selbst und deren Implementierung zu erforschen. Die Umsetzung in einer von vornherein auf Raytracing ausgelegten Engin würde schon sehr viel besser aussehen.
 
Muss da markox vollkommen zustimmen. Wenn das Video tatsächlich so schlecht wäre wie die meisten hier behaupten hätten sie das doch nie gezeigt...
 
Zurück
Oben