KYRO 3 ? Wird das noch was ?

  • Ersteller Ersteller Pudding
  • Erstellt am Erstellt am
P

Pudding

Gast
Hi Folkz.

Mich würde ja mal interessieren, ob und vor allem WANN der Kyro 3 rauskommen soll.

Hat da irgendjemand ne Ahnung ?


Grüße
 
Die kommt doch nimmer, Mensch ;)
 
Der Chip is wohl fertig entwickelt. PowerVR findet nur niemanden, der ihn bauen will.
 
verdammt ich bin kein Gast!! Warum akzeptiert er nich mein Namen plus Passwort ??? *sch****
 
Ist das sicher dass der Kyro3 nicht kommt? Wäre echt schade...
 
Kyro3 wozu ??

Original erstellt von Rattle
Ist das sicher dass der Kyro3 nicht kommt? Wäre echt schade...

Was bringts wenn er kommt. :confused_alt:

Im High-End Bereich wird der wohl kaum mitmischen können, denn ich glaub nicht das der soviel Power hat um ein R300 oder NV30 Chip vom Thron zu stoßen.

Wäre der Kyro3 wirklich so toll dann gäbs den sicher schon, und einige Hersteller würden Karten produzieren.

Vielleicht wirds ein ganz guter Low-Cost Chip aber da haben auch nVidia und ATi ihre Produktreihen die schnell und kostengünstig sind.

Da müssten die wirklich schon nen Hammerchip rausbringen um wieder Marktanteile zu gewinnen aber je länger das dauert bis es Karten gibt umso schwieriger wird es wieder Fuß auf dem Markt zu fassen.

mfg Tweaki4k
 
Schade, die 2er war gut und billig... Kann aber kein T&L weshalb sie bald fliegt...
 
Re: Kyro3 wozu ??

Original erstellt von Tweaki4k
Wäre der Kyro3 wirklich so toll dann gäbs den sicher schon, und einige Hersteller würden Karten produzieren.
Nun ja, an den GraKa-Herstellern liegts ja auch nicht.
Videologic und Hercules würden ja gerne den Kyro3 bringen, wenn es jemanden gäbe, der den Chip produziert.

Da der Deal mit VIA anscheinend geplatzt ist, sucht PowerVR nun weiter händeringend nach einem Chipproduzenten.
Leider sind die Kapazitäten bei den Halbleiterherstellern erschöpft, sodaß in absehbarer Zeit nicht mit einem Kyro3 zu rechnen ist.

Der Kyro3 wäre bei einem sofortigen Release warscheinlich eh nur Midrange und würde sich warscheinlich in Regionen einer Radeon8500 oder GF3Ti500 bewegen. Allerdings bröckelt dieser Markt nach und nach weg, da nVidia die GF4Ti4200 zu einem sehr günstigen Preis anbietet.

In Anbetracht dieser Tatsache werkelt PowerVR bereits an der 5. Generation des Kyro-Chips (Kyro4) und wird von einem Release des Kyro3 warscheinlich absehen.
 
PowerVR darf sich mächtig ins Zeug legen, ich hab mir den 40 Seiten Bericht von anandtech ausgedruckt über den RV300, und ich muss sagen dass sich dass schon sehr gut anhört vom ganzen chip design und so.

Schätze das man verdammt viele verdammt gute Entwickler braucht um so nen chip zu machen, und das kann sich nur eine große Chipentwicklerschmiede wie ATI leisten.

Die Kyro II ist technisch gesehen ja sogar einer GeForce 3 unterlegen, gerade mal am Environmental BumpMapping kann man erkennen, dass der Kyro II nicht von der Zeit der GeForce 2's abstammt.


Meiner Meinung nach ist sogar die HSR Technik von ATI im RV300 der von der Kyro überlegen und die Probleme die die TBR Technik beim Kyro löst, hat ATI und NVIDIA auch einigermaßen in den Griff bekommen, mit mehreren 64bit Memory Controlern und Co.

Ich glaube nicht dass PowerVR jemals nochmal eine vernünftige Karte rausbringt.

Ach und, was ist eigentlich mit den BitBoys *g* sollte der
Avalanche nicht auch mitlerweile rauskommen ?

Chipentwicklung kostet GELD, nichtmal Zeit wie ATI bewiesen hat,
und das hat PowerVR nicht, und die BitBoys auch nicht.
SiS dagegen schon, und so ein Zufall, ihre Xabre Karte rockt.
 
Original erstellt von DaChef
PowerVR darf sich mächtig ins Zeug legen, ich hab mir den 40 Seiten Bericht von anandtech ausgedruckt über den RV300, und ich muss sagen dass sich dass schon sehr gut anhört vom ganzen chip design und so.
Sind sie ja schon bei :D

Schätze das man verdammt viele verdammt gute Entwickler braucht um so nen chip zu machen, und das kann sich nur eine große Chipentwicklerschmiede wie ATI leisten.
Du darfst Qualität und Quantität nicht verwechseln.
PowerVR entwickelt auch nicht erst seit gestern Grafikchips, und das sie immer für ne Überraschung gut sind haben sie mit dem Kyro2 bereits gezeigt.

Die Kyro II ist technisch gesehen ja sogar einer GeForce 3 unterlegen, gerade mal am Environmental BumpMapping kann man erkennen, dass der Kyro II nicht von der Zeit der GeForce 2's abstammt.
:confused_alt:
Sicher ist die K2 einer GF3 unterlegen und es hat imo noch nie jemand das Gegenteil behauptet.
Deine Aussage bezgl. EMBM ist definitiv falsch.
Dieses Feature hatte die Matrox G400 schon, da war an GeForce noch gar nicht zu denken.
Zudem stammt die K2 eindeutig aus der Zeit einer GF2, sie war damals als GF2 Gegner gestartet und hat diesen Bereich ordentlich aufgemischt.

Meiner Meinung nach ist sogar die HSR Technik von ATI im RV300 der von der Kyro überlegen und die Probleme die die TBR Technik beim Kyro löst, hat ATI und NVIDIA auch einigermaßen in den Griff bekommen, mit mehreren 64bit Memory Controlern und Co.

TBR ist technologisch immernoch ungeschlagen.
Versuche, dies mit vorgezogenen Z-Tests zu machen sind zwar erfolgreich, kosten aber vergleichsweise enorm viel Performance.
Ich glaube nicht dass PowerVR jemals nochmal eine vernünftige Karte rausbringt.
Ich glaube kaum, daß du diese Aussage mit Fakten begründen kannst.

Ach und, was ist eigentlich mit den BitBoys *g* sollte der
Avalanche nicht auch mitlerweile rauskommen ?

Chipentwicklung kostet GELD, nichtmal Zeit wie ATI bewiesen hat,
und das hat PowerVR nicht, und die BitBoys auch nicht.
SiS dagegen schon, und so ein Zufall, ihre Xabre Karte rockt.

Bei der Chipentwicklung von Zufall zu reden zeugt nicht gerade von viel Fachkenntins.
Das Geld bei der Chipentwicklung nicht alles ist und auch Zeit keine wesentliche Rolle spielt, zeigen PowerVR und Matrox immer wieder.
 
Zuletzt bearbeitet:
Original erstellt von Bombwurzel
:confused_alt:
Sicher ist die K2 einer GF3 unterlegen und es hat imo noch nie jemand das Gegenteil behauptet.
Deine Aussage bezgl. EMBM ist definitiv falsch.
Dieses Feature hatte die Matrox G400 schon, da war an GeForce noch gar nicht zu denken.
Zudem stammt die K2 eindeutig aus der Zeit einer GF2, sie war damals als GF2 Gegner gestartet und hat diesen Bereich ordentlich aufgemischt.

Kam die nicht im letzten Sommer auf den Markt? Kurz nach der GeForce3??

TBR ist technologisch immernoch ungeschlagen.
Versuche, dies mit vorgezogenen Z-Tests zu machen sind zwar erfolgreich, kosten aber vergleichsweise enorm viel Performance.

Was HSR angeht: Ja! Aber es scheint Schwierigkeit zu geben, eine komplexe DX8-Szene im Tilebuffer abzulegen, und dann mit dependant texture reads, sowie vertex-manipulation wieder drinrumzupfuschen. Ein Spieleentwickler hat's mal so formuliert: Je höher die DX-Version, desto DR/TBR-unfreundlicher ist/wird sie (bezogen auf DX7-10).

Ich glaube kaum, daß du diese Aussage mit Fakten begründen kannst.

Hat PowerVR jemals Karten produziert? ;)
nVidia traue ich auch keine guten Grafikkarten zu.....btw.

Das Geld bei der Chipentwicklung nicht alles ist und auch Zeit keine wesentliche Rolle spielt, zeigen PowerVR und Matrox immer wieder.


Oha, wie lange dauert denn das Design eines Chips von Grund auf deiner Meinung nach?

Gerade PowerVR und Matrox scheinen mir als Beispiele für deine Argumente eher kontraproduktiv. Wie lange versuchte denn Matrox an einem Vertex-Shader rumzubasteln (und hat's immer noch nicht wirklich gut hinbekommen)?
 
Original erstellt von Carsten
Kam die nicht im letzten Sommer auf den Markt? Kurz nach der GeForce3??
Ja, aber sie wurde eindeutig (preislich und leistungsmäßig) im GF2-Segment angesiedelt.

Was HSR angeht: Ja! Aber es scheint Schwierigkeit zu geben, eine komplexe DX8-Szene im Tilebuffer abzulegen, und dann mit dependant texture reads, sowie vertex-manipulation wieder drinrumzupfuschen. Ein Spieleentwickler hat's mal so formuliert: Je höher die DX-Version, desto DR/TBR-unfreundlicher ist/wird sie (bezogen auf DX7-10).
Mangelnde DX Unterstützung war schon immer das Problem von TBR.
Das liegt aber nicht an dem Verfahren selbst, sondern an den Firmen die im DX-Konsortium das Sagen haben. Immerhin sind nVidia und ATi ggü. TBR nicht gerade aufgeschlossen und versuchen mit aller Macht eine Durchsetzung dieser Technologie zu verhindern. Immerhin würde das für die großen Globalplayer im GraKa-Geschäft ein grundlegendes Redesign der Chips bedeuten, was natürlich teurer ist, als einfach die Taktfrequenz zu erhöhen und neue Features zu bringen.
Daß nVidia und ATi damit ganz gut fahren, zeigt der Erfolg den beide Firmen derzeit zu verbuchen haben, aber umso komplexer die Grafik wird und umso mehr Polygone benötigt werden desto wichtiger wird ein intelligentes Szenen-Management. Irgendwann wird es nicht mehr realisierbar sein, immer höhere Taktfrequenzen und damit höhere Verlustleistungen aus den Grafikchips zu pressen, spätestens dann, sollte man sich über Alternativen Gedanken machen.
TBR gibt es bereits und es würde sicherlich eine Weiterentwicklung vertragen können.

Hat PowerVR jemals Karten produziert? ;)
nVidia traue ich auch keine guten Grafikkarten zu.....btw.
:D

Oha, wie lange dauert denn das Design eines Chips von Grund auf deiner Meinung nach?

Gerade PowerVR und Matrox scheinen mir als Beispiele für deine Argumente eher kontraproduktiv. Wie lange versuchte denn Matrox an einem Vertex-Shader rumzubasteln (und hat's immer noch nicht wirklich gut hinbekommen)?

Ziemlich lange.
Und genau das wollte ich auch damit sagen.
Gerade Matrox beweist es immer wieder, daß es reicht, alle 5 Jahre einen relativ guten, aber ausgereiften Chip, zu veröffentlichen und trotzdem schwarze Zahlen zu schreiben.
Okay, Matrox ist nicht börsennotiert und damit auch keinen Anlegern Rechenschaft über die Firmenpolitik schuldig oder von Fremdinvestitionen abhängig, aber gerade diese Firmenpolitik sollten sich einige andere Firmen mal zu Gemüte führen.
Langsam wird es nämlich Zeit, daß die überlichtschnellen Pixelkanonen qualitativ zulegen und sich mehr am Bedarf des Marktes orientieren.
In einem Monat gibt es DX9-Grafikkarten in jedem Laden zu kaufen, wohingegen SPiele, die DX8 benötigen oder wenigstens annähernd ausreizen, immernoch Mangelware sind.
Irgendwie ist das Irrsinn.

Meiner Meinung nach sollten solche Technologiesprünge seltener, dafür aber deutlicher ausfallen.
 
Original erstellt von Bombwurzel
Irgendwie ist das Irrsinn.

Meiner Meinung nach sollten solche Technologiesprünge seltener, dafür aber deutlicher ausfallen.

Recht hast Du! Allerdings wird sich so lange nichts ändern, wie ausreichend viele Leute jeden Technologiehüpfer mitmachen und sich jeweils die neuesten Dinge kaufen, ob sie die nun auslasten können oder nicht.

Ciao, Tiguar
 
Original erstellt von Bombwurzel
Mangelnde DX Unterstützung war schon immer das Problem von TBR.
Das liegt aber nicht an dem Verfahren selbst, sondern an den Firmen die im DX-Konsortium das Sagen haben. Immerhin sind nVidia und ATi ggü. TBR nicht gerade aufgeschlossen und versuchen mit aller Macht eine Durchsetzung dieser Technologie zu verhindern. Immerhin würde das für die großen Globalplayer im GraKa-Geschäft ein grundlegendes Redesign der Chips bedeuten, was natürlich teurer ist, als einfach die Taktfrequenz zu erhöhen und neue Features zu bringen.
Daß nVidia und ATi damit ganz gut fahren, zeigt der Erfolg den beide Firmen derzeit zu verbuchen haben, aber umso komplexer die Grafik wird und umso mehr Polygone benötigt werden desto wichtiger wird ein intelligentes Szenen-Management. Irgendwann wird es nicht mehr realisierbar sein, immer höhere Taktfrequenzen und damit höhere Verlustleistungen aus den Grafikchips zu pressen, spätestens dann, sollte man sich über Alternativen Gedanken machen.
TBR gibt es bereits und es würde sicherlich eine Weiterentwicklung vertragen können.

Ich kenne mich leider zuwenig mit TBR/DR aus, um erklären zu können, warum dieses Konzept mit Variablen in der Szene schwerer zu kämpfen hat, als klassische IMR. Ich kann nur sagen, daß es da wohl Komplikationen mit der Tatsache gibt, daß DR erst alle Infos zu einem Bild im Tile-Buffer haben wollen, bevor sie beginnen, etwas zu tun (Deferred Rendering). Dazu muss afaik aber das komplette Vertex-Processing sowie alle Pixel-Ops fertig sein. Je höher entwickelt Pixel-Prozessoren werden (von DX7 (register combiners) über DX8 (pixelshader 1.0) bis zu DX9 (Ps 2,0)), desto eher werden aber rekursive und verzweigte Operationen nötig, die bei einem TBR/DR afaik zu ziemlich fiesen Pipeline Stalls und Caching Problemen führen können.

Außerdem halte ich TBR/DR auch nicht für ein Allheilmittel, auch wenn es eine interessante Technologie darstellt, denn sobald alle Hersteller darauf umgesattelt hätten, gäbe es dasselbe Brute-Force Wettrüsten wie jetzt auch.

Ziemlich lange.
Und genau das wollte ich auch damit sagen.

Ach so. Oben klang das irgendwie anders, nämlich eher wie "PowerVR und Matrox können in drei Monaten einen Chip aus dem Boden stampfen". :)

Meiner Meinung nach sollten solche Technologiesprünge seltener, dafür aber deutlicher ausfallen.

Ein eindeutiges JAIN.
Dann hätten wir das Playstation-Syndrom: Neue Hardware auf dem Markt und du kannst deine alte Hardware vergessen, zero chance. Und an einen Fall-Back von DX9-Technik auf DX7 glaube ich nicht ;).
Aber irgendwie wär's natürlich schon schön, nicht jede Zwischenstufe der Entwicklung mitbezahlen zu müssen (andererseits wird ja auch niemand dazu gezwungen, gelle?).
 
Original erstellt von Carsten


Kam die nicht im letzten Sommer auf den Markt? Kurz nach der GeForce3??

neun, anfang märz 2001 kam sie offiziel in die läden ~ kumpel hat die nämlich immernoch drinne ;-)
 
Danke für die Info, ich hatte, wie gesagt, noch Sommer letzten Jahres im Gedächtnis.
 
Tja Bombwurzel, du hast ca die Hälfte meines Postings nicht verstanden *g*
 
Zurück
Oben