News Intel: Ausblick auf zukünftige Grafikchips

Hoffe ich mal, das Intel was beim Stromverbrauch macht. Das stört mich ja an den aktuellen Grafikchip,s das so n Ding mal eben das doppelte verbrauchen kann wie ne schnelle CPU.
 
@tAk
Hey tAk, irgendwie drehst du dich gerade im Kreis. Ließ doch bitte noch mal den ersten Beitrag von mir.
Da hab ich erläutert, dass Intel rein planmässig Ende 2008/Anfang 2009 noch den Nehalem (45nm) fertigen wird. Erst später wird also ein Shrink stattfinden.
Hast du gemeint. CPU ist ja nicht gleich GPU.
Hab ich gemeint. Jö, aber GPU ist auch nicht einfacher, also wird man eine GPU nicht vor der CPU auf kleinere Strukturen bei Intel umstellen, sondern wenn dann zusammen.
Fragst du wieder die erste Frage. Warum sollen Anfang 2009 Intel nicht schon auf 32 Umsteigen?! Meine Antwort: Siehe erster Beitrag von mir ;) :watt: :cool_alt:
 
Richtig, das sehe ich genau so.
GPUs sind um einiges größer als CPUs. Hinzu kommt, dass GPUs fast nur aus Logic bestehen. Wenn da irgendwo eine Fehler im Silizium ist, ist der Chip im Eimer. Bei CPUs belegt inzwischen der Cache den größten Teil des Chips. Mein Cache werden dabei immer ein paar Reserver Kilobyt/Megabyte eingebaut. Wenn bei der Produktion was auf dem Chip defekt ist, dann liegt der Defekt meist im bereich des Caches. Also deaktiviert man den defekten Cache und verkauft ihn als Celeron/Sempron oder aktiviert die Reserve-Bereiche.

Aus diesen Gründen liegen GPUs bei den Strukturbreiten eigentlich immer ein oder zwei Generationen hinter dem technisch machbaren.
Aus dem selben Grund sind Speicher-Chips (z.B. DRAM) idR im Fertigungsprozess eine ganze oder halbe Generation voraus.

Würde Intel also heute eine High-End GPU auf den Markt werfen, wäre nicht sicher ob diese auch 65 nm oder vielleicht erstmal etwas grober daher kommen würde.
 
Nun auf jeden Fall sollten die Intel Cores nicht zu komplex sein, denn um so komplexer um so schwieriger wird es sein sie in 32nm zu produzieren. Wie gut oder schlecht Intel abschneiden wird, muss man erst mal abwarten. Intel hat in dieser Richtung noch nicht viel produziert und kann zu erwartende Probleme bestenfalls schätzen. Davon abgesehen meine ich mal gelesen zu haben, das auch die anderen Hersteller (nVidia und ATI) sich bereits Gedanken gemacht haben über einen Multicoreaufbau. Nach allem was ich weiß, ist der 8800er ja auch nicht von gestern auf heute entstanden, sondern wurde über Jahre hinweg entwickelt. Ein Multicoreaufbau kann nämlich auch in der Skalierbarkeit einen Vorteil haben.
Als Beispiel sehe ich hier Intels Quadcore, zwei zusammengeklebte Dualcore. Für Grafikchips könnte das bedeuten: Der Entry-level erhält 8 Kerne, der Mainstream 12 und der Highend Bereich 16. Der Vorteil wäre, man müsste immer nur ein und denselben Grundkern produzieren und in entsprechender Menge zusammenkleben.
Aus diesem Grund denke ich auch, das hochkomplexe Kerne wie der 8800er nicht mehr lange geben wird, da die Kosten bei Ausschuss einfach zu hoch werden.
Aber wie gesagt, Intel kündigt hier vielleicht nur groß an, woran die anderen Hersteller bereits im geheimen Stübchen werkeln.
 
DA bin ich sehr gespannt. ABer ist ein logischer Schritt Intels. Die müssen ihre Fertigungskenntnisse ausspielen und versuchen den Markt vollkommen zu durchdringen. GMA 950 bringt da noch nicht genug...
 
da frag ich mich doch ... ob nicht intel eventuell ... mit dem grossteil der fertigungsstätten ... direkt auf die 32nm umstellen will ... somit könnten sie ... wenn sie in der technologie schon soweit wären ... nur mit den schon umgestellten fabrikationshallen auf 45 produzieren. die anderen, würden dann direkt aufs kleinste umsteigen können ... würde ihre kosten sehr ... sehr klein halten, im vergleich zu zweimal umstellen. womit es eigentlich passen würde, das intel noch keine in 45 gefertigten chips verkauft, da es, sobald sie offiziell zu haben sind eine nachfrage geben wird. so haben die fabrikhallen mit der 45 tech ... flottes ... bis ans maximum gehende produzieren auf sicher ein jahr hinaus gesichert, ohne direkten bedarf auf umstellung. dann die 32 produktion in einem jahr ... würd zu schön sein für intel, denk ich mir, doch verwerfen kann ich den gesamten gedanken nicht, da sie schon mit den jetzigen cpu`s kräftig gas gegeben haben. was spricht dagegen, weiter gas zu geben .... eigentlich nichts, das kapital ist da, die hallen stehen ... oder werden neu dazugebaut. intel scheint ja den hauseigenen pc im auge zu haben. graka von intel./cpu etc. und auch mir ist es klar, das adm/ati//nvidia die gesamte konkurrenz nicht schläft. was liegt da näher, sich total zu etablieren? oder wer würde sich nicht, wenn sie im preis/leistungsverhältniss stimmig sind, die grafikkarte auch wirklich gut ist, sich nicht einen rechner zusammenstellen, mit fast nur intel-komponenten... wenn die entscheidung nur wäre, brauch ich leistung, nehm ich intel. bin ich bastler und gehe zu zig seiten auf dem netz, um für die hardware die richtigen treiber zu suchen, oder hab ich EIN tool, welches mir ALLE komponenten updatet.

nicht zu vergessen, der user ist doof, folglich braucht es lösungen für dummis, nicht für wissenschaftler *smile


ähm, übrigens, ich bin auch user *sfg
 
war da irgendwan mal ne news das intel mal geplant hatte ati zu kaufen?
ich finde es gut das es diesmal ohne eine offizelle uebername klappen soll. naja auser nvidea gibts ja auch nichts mehr^^
 
jared schrieb:
Was haben die Dreamcast und er Kyro gemeinsam? Beide sind nach einem kurzen erfolglosen Intermezzo in der Bedeutungslosigkeit verschwunden. Und Spielhallengrafik ist, vergleichen mit den Highend-Chips von Ati und nVidia der reinste Kinderkram. Das ist ungefähr, so, als ob du das Prozessor-Know-How von Atmel mit Intel vergleichst. Es gibt am Markt momentan einfach keine weiteren Unternehmen, die man mal einfach so aufkaufen könnte und die das KnowHow von Ati oder nVidia bezüglich Grafikchips hätten. Was AMD also mit dem Aufkauf von Ati gelungen ist, war ein Schachzug sondergleichen, der für Intel aufgrund der Kartelwächter nicht möglich ist.

Es ging mir nur darum zu zeigen, dass diese Firma auf der Höhe der Zeit ist und mit einem passenden Fertigungspartner durchaus einiges auf die Beine stellen kann. Serie5 sieht durchaus SM3 und 4 vor, je nach Komplexität des Designs.
Zudem war der Kyro der erste TBDR, der vollständig zu den IMRs der damaligen Hersteller kompatibel war, und dafür war er effizient und erfolgreich. Der K2 war durchaus ein vielgekaufter Mainstreamchip, ST hat einige davon abgesetzt. Die Story wär ja auch weitergegangen, hätte unser Schweizer Riese ST nicht plötzlich Muffensausen bekommen, dass sie den Fertigungsprozess nicht rechtzeitig für die Serie 4, 5 und 6 hinbekommen, Lizenzen haben die für alles, aber das nur nebenbei ;).
Die DC war übrigens wegen SEGAs Geschäftspolitik nicht erfolgreich, das hatte rein garnichts mit der Grafik zu tun. Im Gegenteil, die DC hat deutlich mehr Grafikpower als die PS2, dank PowerVR Serie2 Technik.
Spielhallengeräte können übrigens auch komplexe Grafik benötigen, aber es ging mir auch um Simulatoren.

Und irgendwie glaube ich einfach nicht dran, dass man 10 Jahre Entwicklungserfahrung im Bereich High-End-graphik einfach so aufholen kann, auch nicht mit einem Team guter Theoretiker (BitBoys z.B., denen hat auch einfach die Erfahrung fürs reale Geschäft im Grafikbereich gefehlt, das waren einfach Idealisten mit Traumvorstellungen vom perfekten Chip, die von der Evolution der "normalen" Chips ständig überholt wurden). Also ich glaube das Intel aufgrund seines Kapitals und der fast Unbegrenzten Manpower sicher einen guten CHip auf die Beine stellen wird, aber es wird sicher nicht reichen um die beiden Könige vom Thron zu stoßen. Zumindest nicht im ersten oder zweiten Anlauf. Dennoch begrüße ich das Engagement. Konkurrenz belebt das Geschäft und 3 sind ja immer noch überschaubar.

Hör endlich auf von deinen "Theoretikern" zu philosophieren, die haben durchaus lauffähige Samples von ihren Chips. Sie kümmern sich nur nicht um die Massenfertigung, sprich, sie sind nicht bereit, das Risiko der Chipfertigung zu tragen. Die Chips sind durchaus fertig, die diese Firmen entwickeln. BitBoys gehört i.Ü. ATI und deren Technik ist durchaus in ATI Produkten zu finden. Z.B. enthält die XBox360 GPU eDRAM, woher das wohl kommen mag... Deine "Theoretiker" sind also durchaus dick im Geschäft. Zudem kommen fast alle Mobilchips, die 3D-fähig sind, mit PowerVR oder BitBoys Technik. Intel kann mit dieser technik durchaus die 10 Jahre aufholen, eben da sie aktuelle Designs haben und diese "nurnoch" in Massenproduzierbare Chips gießen müssen. Das KnowHow für die Fertigung haben sie ja und eine Menge Leute, die sich mit Vektordesigns auskennen, haben sie sich auch eingekauft. Geld ist eh kein Problem, also was bitteschön soll da noch schiefgehen?
Noch eine Bemerkung zum letzten Satz: Es wäre besser, es wären 50 Fertiger als 3.
 
Zuletzt bearbeitet:
Zum Thema 32nm: Intel wird vielleicht Mitte-Ende 2009 mit 32nm in der Massenfertigung beginnen, aber eben nur in einer Fab nach der anderen. Als erstes wird die Forschungsfab D1C in Oregon in den USA die 32nm Massenfertigung aufnehmen, der komplette Umstieg aller Intel Fabs auf 32nm wird Jahre dauern. In den als erstes modernisierten Fabs (Fab D1C und Fab 18 in Israel) werden aber ziemlich sicher ausschließlich Prozessoren gefertigt, andere Fabs fertigen Chipsätze und eben später auch Grafikchips. Zum Zeitpunkt des Erscheinens von einem Grafikchip in 32nm Fertigung auszugehen ist also keinesfalls korrekt, erst sind die CPUs dran. Intel wird die allerersten Grafikchips zu deren Erscheinen wahrscheinlich noch in 65nm fertigen und mit der nächsten Revision auf 45nm wechseln, wäre also genausoweit wie AMD und NV damit.
Übrigens ist hier ein weiterer Grund zu sehen, warum Intel plötzlich wieder Grafikchiops fertigen will: sie müssen Fertigungskapazitäten vollbekommen. AMD nimmt Intel immer mehr Marktanteile ab und gleichzeitig steigt die Anzahl der produzierten CPUs bei Intel schneller als der Markt dafür wächst, sie werden also bald viele Kapazitäten freibekommen, die man sehr gut mit Grafikchipfertigung füllen kann.
 
Zuletzt bearbeitet:
Als die "Theoretiker" ihre Chips fertig hatten, waren praktische jedes Mal schon von der Zeit überholt. Zeit ist in der Grafikchipsbranche aber essentiell. Das sieht man schon jetzt an Ati und nVidia, nur weil Ati eine halbe Generation hinterher hängt.

Und du brauchst Grafikchips für Mobilgeräte oder Spielhallenautomaten oder ähnliches nicht mit den aktuell schnellsten GPUs vergleichen (Äpfel und Birnen). Diese Mobilchips würde sogar S3 mal eben aus dem Ärmel schütteln. In diesem Fall geht es weniger um Technik als fast ausschließlich um den Fertigungsprozess und Stromspartechiken. Die Technik für Mobilchips ist idR schon Jahre alt und kann sicher überall in Lizenz gekauft werden. Es geht im High-End-Segment aber darum am Rande des technisch Machbaren serienreif zu entwickeln und das kauft man nicht mal eben irgendwo ein. Und Prototypen, Designstudien oder Entwurfsmustern verdient man kein Geld. Dass diese sich bezahlbar produzieren lassen steht nämlich noch nicht fest.

Und zum eDram: Das ist auch ein prima Beispiel. Damals schien das eine echt gute Idee. Aber es hat gegen die Zeit gespielt. Externes Grafik-RAM hat sich einfach viel schneller entwickelt als damals erwartet. Dabei steht der Grafik-RAM kurz vorm Durchbruch der 100GB/s Grenze und das Bei Speichermengen zwischen einem 512 und 1024 MB. Etwas ähnliches wird eDRAM nie leisten können. Selbst die Transferraten des eDRAM kommen da kaum mit, weil die Zeit gegen sie spiel. Der eDram der PS3 erreicht übrigens gerade mal etwa die doppelte theoretische Transferleistung, was aber durch die Tatache, dass er nur 10 MB umfasst stark eingeschränkt wird. Der Chip muss einfach viel zu oft auf das RAM zugreifen, weil die meisten (Textur-)Daten eben da liegen. Aufgrund immer schneller, immer weiter steigenden Grafikspeicherbedarfs (größere, schärfere, mehr Texturen) wird diese Missverhältnis immer größer.

@Straputsky:
So revolutionäre ist das Multichip-Design im GPU-Bereich nicht. Auch nVidia entwickelt nicht den kompletten Chip mit seienn 500 Mio-Transistoren durch. Es wird eine oder mehrere effiziente Pixelpiplines entwickelt (z.B. die "Quadpipe" beim GF7). Und dieses stück wird dann auf dem Chip "einfach" mehrfach nebeneinander eingesetzt (ergibt dann 4, 8, 12, 16, 20 oder 24 Pipelines). Der Chip ist daher praktisch genauso flexibel wie "16 Cores auf einem Chip". Praktisch gesehen ist es ein und dasselbe, nur mit anderen Bezeichnungen. Wahrscheinlich werden nVidia und Ati daher demnächst ihre GPUs auch in "Multicores" oder etwas ähnliches umtaufen, weil es sich offensichtlich besser vermarkten lässt. Sieht man ja. ;)
 
jared schrieb:
Als die "Theoretiker" ihre Chips fertig hatten, waren praktische jedes Mal schon von der Zeit überholt. Zeit ist in der Grafikchipsbranche aber essentiell. Das sieht man schon jetzt an Ati und nVidia, nur weil Ati eine halbe Generation hinterher hängt.
Da irrst du einfach und das war auch schon damals nicht so. Der Kyro wurde erst viel später in den Markt eingeführt als er eigentlich fertig war. Ich erinnere mich gut an die Prasentation von PowerVR damals, ungefähr 3/4 Jahr vor dem erscheinen des Kyros. Das Problem ist nicht der Chip oder das Design, das ist zeitig fertig, das Problem sind die Fremdfertiger. Intel ist jetzt aber nicht irgendein Fremdfertiger, das ist der springde Punkt bei der Sache.
Und du brauchst Grafikchips für Mobilgeräte oder Spielhallenautomaten oder ähnliches nicht mit den aktuell schnellsten GPUs vergleichen (Äpfel und Birnen). Diese Mobilchips würde sogar S3 mal eben aus dem Ärmel schütteln. In diesem Fall geht es weniger um Technik als fast ausschließlich um den Fertigungsprozess und Stromspartechiken. Die Technik für Mobilchips ist idR schon Jahre alt und kann sicher überall in Lizenz gekauft werden. Es geht im High-End-Segment aber darum am Rande des technisch Machbaren serienreif zu entwickeln und das kauft man nicht mal eben irgendwo ein. Und Prototypen, Designstudien oder Entwurfsmustern verdient man kein Geld. Dass diese sich bezahlbar produzieren lassen steht nämlich noch nicht fest.
Und wieder liegst du komplett daneben. Mobilchips sind sogar noch ne Ecke Anspruchsvoller als PC Chips, da der Stromverbrauch, die Grösse und die Leistung stimmen muss. Hier haben deine angeblichen Theoretiker gewaltige Vorteile, das ist das KnowHow. ATI hat sich das mit Bitboys angeeignet, aber NV z.B. fehlt sowas vollständig. Du machst es dir schön einfach, das sind ja nur kleine unbedeutende Chips usw. Nein, sie sind deutlich schwerer zu entwickeln, da sie schnell sein müssen und sich an sehr strenge Spezifikationen halten, zudem müssen sich billig zu produzieren sein. Der MBX war technisch auf SM1 Niveau damals, das war fast Zeitgleich mit Geforce3 und 4. Diese Entwicklung treibt die Entwicklungskosten und geht nur mit entsprechender Erfahrung. Diese Erfahrung kann allerdings in Zukunft für den PC Markt sehr nützlich sein, wenn man sich mal den R580 oder den G80 ansieht ;).
Und zum eDram: Das ist auch ein prima Beispiel. Damals schien das eine echt gute Idee. Aber es hat gegen die Zeit gespielt. Externes Grafik-RAM hat sich einfach viel schneller entwickelt als damals erwartet. Dabei steht der Grafik-RAM kurz vorm Durchbruch der 100GB/s Grenze und das Bei Speichermengen zwischen einem 512 und 1024 MB. Etwas ähnliches wird eDRAM nie leisten können. Selbst die Transferraten des eDRAM kommen da kaum mit, weil die Zeit gegen sie spiel. Der eDram der PS3 erreicht übrigens gerade mal etwa die doppelte theoretische Transferleistung, was aber durch die Tatache, dass er nur 10 MB umfasst stark eingeschränkt wird. Der Chip muss einfach viel zu oft auf das RAM zugreifen, weil die meisten (Textur-)Daten eben da liegen. Aufgrund immer schneller, immer weiter steigenden Grafikspeicherbedarfs (größere, schärfere, mehr Texturen) wird diese Missverhältnis immer größer.
eDRAM kann nur was für Konsolen oder integrated Geschichten sein, nichts für PCs. Deshalb ist BB auch damals mit ihrem Design, nicht mit der Fertigung, gescheitert. Aber: BB ist nicht PowerVR und es halndelt sich hier um sehr unterschiedliche Designansätze. eDRAM ist nur dann effizient, wenn es eine feste Auflösung gibt, so einfach ist das. eDRAM ist auch nicht mit herkömmlichem Grafikram vergleichbar, weil er mit viel grösserer Bandbreite angebunden ist und die Latenzen des eDRAM sind deutlich geringer, was Blending z.B. deutlich beschleunigen kann. Texturmassen benötigen übrigens keinen schnellen RAM und Latenzen spielen bei Texturen eine sehr geringe Rolle. Texturen werden nicht in den eDRAM ausgelagert, hier wird lediglich auschließlich der Frambuffer untergebracht. Der Grund, warum man so grossen schnellen RAM auf eine Grafikkarte baut, ist, dass der Framebuffer, je nach Auflösung und Antialising, sehr gross werden kann. Bei Konsolen ist das aber nicht so dramatisch, weil sich 1.) der Spieleentwickler darauf einstellt und somit das Antialising auf die Framebuffergrösse optimieren kann und 2.) die Auflösung fest ist, beides Punkte, die sich auf dem PC nicht realisieren lassen. Der eDRAM ist einer der grossen Joker des XBox360 Chips und sollte nicht unterschätzt werden. Jedoch ist das Ganze etwas OT, da es hier um PowerVR Technik geht und die ist deutlich flexibler und effizienter als BB Technik. Mit PowerVR Technik kann man flexibel skalieren ohne Effizienz einzubüssen, hiermit sind auch grosse leistungsfähige Chips möglich mit einem energiesparenden Design. Der Haken war nur der, dass es kaum Fertiger gibt, die KnowHow mit Grafikchipfertigung in PC Grössenordnungen haben, deshalb hat ST damals auch aufgegeben. Die Fertigung ist natürlich wesentlich anspruchsvoller als bei Mobile-Produkten aber das Design nicht. Es ist jetzt an Intel, ob sie es hinbekommen, das PowerVR Design in einen Grafikchip zu giessen, der sich in Masse produzieren lässt und genügend Leistungsfähig ist. Am Design wird das ganz sicher nicht scheitern. Und genügend Geld und Manpower hat Intel allemal für diese Aufgabe, sie haben halt nur keine Designabteilung, deswegen lizenziert man das einfach und fertig.
@Straputsky:
So revolutionäre ist das Multichip-Design im GPU-Bereich nicht. Auch nVidia entwickelt nicht den kompletten Chip mit seienn 500 Mio-Transistoren durch. Es wird eine oder mehrere effiziente Pixelpiplines entwickelt (z.B. die "Quadpipe" beim GF7). Und dieses stück wird dann auf dem Chip "einfach" mehrfach nebeneinander eingesetzt (ergibt dann 4, 8, 12, 16, 20 oder 24 Pipelines). Der Chip ist daher praktisch genauso flexibel wie "16 Cores auf einem Chip". Praktisch gesehen ist es ein und dasselbe, nur mit anderen Bezeichnungen. Wahrscheinlich werden nVidia und Ati daher demnächst ihre GPUs auch in "Multicores" oder etwas ähnliches umtaufen, weil es sich offensichtlich besser vermarkten lässt. Sieht man ja. ;)
Das was daran wirklich neu ist, ist, dass mehere Dice auf einem Trager untergebracht werden bzw. mehrere Träger auf einer Platine. Alles in einem Die zu entwickeln lohnt sich nicht, da diese zu gross werden und der Yield extrem beschissen wird bei 300mm Wavern. Diese Konzept werden wohl alle Grafikherstellern verwirklichen, ATI hat das mit dem R700 schon quasi angekündigt, Intel auch und NV wird wohl folgen, zumindest geht der Markt davon aus. Die werden einfach nurnoch einen kleinen Grundchip bauen, mit einem entsprechen leistungsfähigen Trianglesetup bzw. bei Intel/PowerVR TileAccelerator, Rasterizer und VGA Teil, die Shaderprozessoren werden in beliebiger Anzahl extern auf den Träger oder das PCB gelötet. Dieses Konzept kommt übrigens Intel und z.B. S3g sehr entgegen, da auch diese Hersteller keine 600Mio+-Gates-Chips bauen müssen.
 
Zuletzt bearbeitet:
kisser schrieb:

THX @ kisser! ;)

Na dann sollte dem Refresh des G80 eigentlich nur noch nVidia im Wege stehen. Bin gespannt ob man die komplexe Architektur auch in 65nm Strukturbreiten unterbringen kann.

@ XP_home:

Mir ist die CPU Roadmap von Intel durchaus bekannt. Und klar ist mir auch, dass GPU wesentlich komplexer sind als CPUs. Soweit so gut. Vielleicht werden es ja nicht gleich 32nm werden, aber 45nm liegen sicherlich im Bereich des möglichen. Lassen wir uns am besten mal überraschen. ;)

mFg tAk
 
HOT schrieb:
Das was daran wirklich neu ist, ist, dass mehere Dice auf einem Trager untergebracht werden bzw. mehrere Träger auf einer Platine. Alles in einem Die zu entwickeln lohnt sich nicht, da diese zu gross werden und der Yield extrem beschissen wird bei 300mm Wavern.

16 Chips mal eben auf einem Träger miteinander Verdrahten geht auch nicht gerade einfach. Zudem steht in der Meldung 16 Chips auf eine Die. Das Die ist nicht der Träger, sondern das Silizium. Soviel dazu.

Nochmal wegen den Mobilchips auszuholen spare ich mir jetzt. Dass es dabei ausschließlich auf die Stromspartechniken ankommt, von denen etablierte Mobilhersteller mehr Ahnung haben, hatte ich schon geschrieben gehabt. Anonsten bewegt sich die Renderleistung von Mobilen 3D-Chips irgendwo knapp über Geforce 256 Niveau. Also einige Jahre zurück. Man bedenke, dass die zu berechnenden Auflösungen lächerlich klein sind.
 
16Cores, boha, Intel hats ja schon geschaft 80cores auf nen prozessor zu quetschen, die alle aber langsam waren. Ich glaub aber wenn 1Core, die leistung eines derzeitigen mittelklasse chips hat, dann könnte man damit retracying anstellen oder nischt XD
 
Ich hoffe schon mal auf einen guten Open Source Grafiktreiber von Intel für deren kommende Grafikkarte.
 
S´p@tcher schrieb:
16Cores, boha, Intel hats ja schon geschaft 80cores auf nen prozessor zu quetschen, die alle aber langsam waren. Ich glaub aber wenn 1Core, die leistung eines derzeitigen mittelklasse chips hat, dann könnte man damit retracying anstellen oder nischt XD

Das kommt natürlich auf das Spiel selbst an. Bei Quake4 könnte das evtl. spielbar sein in der entsprechend niedrigen Auflösung, aber Spiele wie Crysis bräuchten da extrem viel mehr CPU Power um das flüssig darzustellen.

mFg tAk
 
@ tAk
Warum soll Crysis bei Raytracing so viel langsamer sein als Quake4?
In beiden Spielen muss die gleiche Anzahl an Lichtstrahlen durgeschickt und berechnet werden. Was Raytracing langsamer macht, ist die höhe der Auflösung. Je größer die Auflösung, desto mehr Lichtstahlen müssen durch den Raum geschickt und berechnet werden.

https://www.computerbase.de/2007-01/bericht-raytracing-in-spielen/3/

".......Das Ergebnis: Obwohl die Komplexität der Geometrie in dem modifizierten Quake-3-Level sechsmal so hoch war, verringerte sich die Framerate unter Einsatz von Raytracing lediglich um 25 Prozent. Unter Einsatz von Rastarisierung würde der Geschwindigkeitsverlust ein Vielfaches bedeuten........"
 
Zuletzt bearbeitet:
Zurück
Oben