Kyro V5 bereits in den Startlöchen?

Original erstellt von Supernoob
Noch mehr Konkurrenz, noch tiefere Preise! Einfach Super!

Um erlich zu sein, glaube ich nicht das sie zu eine Karte bringt die echt Konkurenzfähig sind zu den ATi & nVidia's HighEnd Karte. Aber vielleicht zu eine Preis/leistungs verhältniss schon, eben nru vielleicht... aber trotzdem finde ich es auch Cool das die Preise sinken.
 
hoffentlich kommt se, und stürzt ATI und Nvidia in den Ruin!!!
Verfluchte Monopolisten........ (Dualisten.... eher...... hmmm .... irgendwie so halt!)

Man errinnere sich noch an Unreal 1 .... das sah mit PowerVR schon besser aus als mit Glide oder OpenGL .... DirectX (der grösste Krampf aller Zeiten, weil von Microsoft, und weil nur unter Win laufend) kam ja erst als Patch .... leider!

An alle Programmierer dieser Welt: BENUTZT OPENGL!!!!!!!!!

*applaus*

.....Dankeschön......
 
Erst Mal abwarten Jungs!

Wie Matrox die Parhelia auf den Markt gebracht hatt und von der ATI 9700 und nVIDIA
5800 nichts zu sehen war, haben alle gemeint, dass das jetzt das non-Plus-Ultra für
die kommenden Games ist.
Bei erscheinen der ATI 9700 war gleich klar, das es mit dem non-Plus-Ultra der Perhelia
nicht sehr weit her war. Zudem ist jetzt auch noch bekannt geworden, dass sie nicht mal
DX9 treibermäßig unterstützt.

Also, erst Mal abwarten und wenn alle drei Produkte der nächsten Generation erhältlich
sind, kann man sagen, was der neue PowerVR Chip taugt ;) Über die neue (bzw. zurück-
gekehrte) Konkurrenz kann man sich ja nur freuen, weil das den Preisen gut tun wird :D

MfG

Moonstrucker
 
Original erstellt von PoRnoPoLe
Man errinnere sich noch an Unreal 1 .... das sah mit PowerVR schon besser aus als mit Glide oder OpenGL .... DirectX (der grösste Krampf aller Zeiten, weil von Microsoft, und weil nur unter Win laufend) kam ja erst als Patch .... leider! An alle Programmierer dieser Welt: BENUTZT OPENGL!!!

Kann ich jetzt absolut nicht bestätigen, bei Unreal 1 war Glide um Welten das Beste!
 
Original erstellt von PoRnoPoLe
hoffentlich kommt se, und stürzt ATI und Nvidia in den Ruin!!!
Verfluchte Monopolisten........ (Dualisten.... eher...... hmmm .... irgendwie so halt!)

Man errinnere sich noch an Unreal 1 .... das sah mit PowerVR schon besser aus als mit Glide oder OpenGL .... DirectX (der grösste Krampf aller Zeiten, weil von Microsoft, und weil nur unter Win laufend) kam ja erst als Patch .... leider!

An alle Programmierer dieser Welt: BENUTZT OPENGL!!!!!!!!!

*applaus*

.....Dankeschön......

nun aber mal halt lang!
Man kann doch nicht immer gleich bäh bei Microsoft schreien. Ohne die enorme finanzielle Stütze von Microsoft gäbe es heute wohl kaum weder eine vernünftige Schnittstelle als Komplettpaket noch wäre die Entwicklung in Sachen Fotorealismus, ForceFeedback und sonstigem Gimmick dermaßen vorangeschritten. Jeder Kartenhersteller hätte seine eigene Grafikprogramiersprache. Die Programmierung von Anwendung würde sich aufgrund von Inkompatibilitäten unnötig in die Länge ziehen.
Ich will OpenGL nicht dreckig machen. Die Open-Source-Version von Glide (3dfx-Patent) hat bei effizienter, hardwarenaher Programmierung durchaus seine Stärken. Es ist nur schwerer und umständlicher.
 
Sorry für meine blöde frage, aber sind OpenGL und Direct-X direkte Konkurenten sowie ATi VS nVidia? Ich dachte das die beiden nur eine Grafikunterstützung sind die Stereo artig ist, und nicht Monoartig... :o
 
Zuletzt bearbeitet:
Original erstellt von PoRnoPoLe
nur das directx NUR auf windows systemen läuft, opengl auch auf Mac und Linux......

Heisst nicht umsonst "Microsoft DirectX" und OPENgl. ;)

D.h ein DX spiel läuft nur unter windows(oder per winex), ein opengl spiel meisst auch auf linux/unix und macOS.
 
Sorry das ich von Thema gerade abkomme, aber da Ihr gerade von Mac PC's redet bzw schreibt möchte ich eine frag äussern.
Ich habe neulich bei einen Mac Center eine Schnupperlehre durchgeführt, es ist eine Art Praktikum, dauert allerdings normaleweise nur etwa 1 Woche.
Da gab es dort eine Mac G5 bereits zu sehen, allerdings nur der mit 1.6Ghz.
Wie ich sah war er doch während diese Zeit eine zihmlich Sensation, aber bis heute höre ich nichts mehr von Ihm, ist er jetzt doch ein Flop gewordenn? Er ist doch der erste richtige 64Bit Desktop CPU mit bis zu 8GB Ram und 8 Dimm Slots, er hat auch bereits PCI-X und Firewire 800 (~800MB/s Date Transfer). Warum passen sich die Normalen Desktop PC's das nicht an?
 
THG: XGI Volari Preview

Gibts zum Kyro schon irgendwo Previews, Tests o.ä.? Nein, dann abwarten. Gerüchte hochköcheln lassen bringt nix. Es wäre zwar schön eine günstige Alternative zu ATI/NVidia zu haben ....
Etwas handfester ist der Preview zum kommenden XGI Volari auf THG. IMO sehen die Testergebnisse zwar ziemlich Benchmarkoptimiert aus, aber zumindest gibt es hier was greifbares.
Wenn ein neuer Graka Chip(egal ob XGI oder Kyro) die aktuellen Marktführer wiedermal zwingt nen preiswerten Chip ala G4 oder R9500p unters Volk zu werfen, dann solls mir recht sein :D
 
@douron


Wat? Die T&L Einheit fehlt bei der Kyro 2? Echt?

Warum schafft sie es dann, Battlefield 1942 auf einem Athlon mit 1000 Mhz, 256MB RAM, Hercules 4500 Prophet (64Mb Sd-RAM) flüssig mit 800x600 darzustellen?

Es treten nur manchmal eigenartige Texturfehler auf, aber die sind der Technik zuschulden zu führen (wobei ich nicht sagen will das sie schlecht ist).


Ein Kumpel von mir hat so ein System und BF läuft recht akzeptabel, sogar besser als mit einer GeForce 2 MX :cool_alt:
 
Original erstellt von Hausmeister
Wat? Die T&L Einheit fehlt bei der Kyro 2? Echt?

Jop.

Warum schafft sie es dann, Battlefield 1942 auf einem Athlon mit 1000 Mhz, 256MB RAM, Hercules 4500 Prophet (64Mb Sd-RAM) flüssig mit 800x600 darzustellen?

Weil T&L eher eine große Marketingkampagne war:

"[...] Doch Schuld haben auch etliche Redakteure, zum Beispiel jene, die eine Kyro2 in der GeForce2 MX-Liga sehen. Obwohl dorthin bereits die alte Kyro gelangt, während ihr Nachfolger eher mit einer GeForce2 GTS zu vergleichen ist. Sogar Fachmagazine, unter anderem die angesehe c´t, blamieren sich hier: Offenbar reicht es, wenn nVidia in einem pdf-Dokument die Kyro II (übrigens ziemlich unfair) mit der MX vergleicht und schon ist es "offiziell", dass beide Karten ähnliche Leistungen bringen. Erst vor kurzem äusserte sich ein Spiele-Entwickler in der PC Games Hardware ähnlich, was die Leistung des Kyro2 betrifft. Das darf eigentlich nicht mehr passieren, denn die Kyro2 schlägt eine GeForce2 MX bei aktuellen CPUs geradezu vernichtend. [...]

Dazu der Artikel T&L - das nicht eingelöste Versprechen vom 3DCenter, SEHR Lesenswert!

Ein Kumpel von mir hat so ein System und BF läuft recht akzeptabel, sogar besser als mit einer GeForce 2 MX :cool_alt:

Klar, ne Kyro II kam teilweise sogar an eine GF2 Pro ran, meist pendelte sie sich in der Performance zwischen einer GF2MX und einer GF2GTS ein.

Interessant:

"Eine andere Variante davon ist, daß Redakteure blind ihren Standard-Benchmarks vertrauen: Eine Auswahl repräsentativer Spiele zu testen, ist viel aufwändiger als einfach den 3DMark laufen zu lassen. Dieser zieht jedoch aus T&L grossen Nutzen und verzerrt so das Bild extrem. Doch auch das klärt noch nicht alles: Laut 3DMark2000 ist eine Riva TNT2 Pro auf einem Pentium III 500 schneller als eine Voodoo5 5500 (ebenfalls auf einem Pentium III 500). Ganz offensichtlich wurden die nVidia-Treiber gehörig extra für diesen Benchmark optimiert. Doch wo wurde dies angeprangert? Warum erzeugte die Entdeckung, dass viele nVidia-Treiber GDI-Bypassing (Umgehung der Windows-Architektur auf Kosten der Stabilität und Kompatibilität) verwenden, in den Fachmagazinen keinen Aufruhr? Immerhin positioniert man sich so gerade für synthetische Benchmarks in eine bessere Lage als die Mitbewerber." 17. September 2001, 3DCenter

:)
 
Zuletzt bearbeitet:
Original erstellt von Project-X
Sorry das ich von Thema gerade abkomme, aber da Ihr gerade von Mac PC's redet bzw schreibt möchte ich eine frag äussern.
Ich habe neulich bei einen Mac Center eine Schnupperlehre durchgeführt, es ist eine Art Praktikum, dauert allerdings normaleweise nur etwa 1 Woche.
Da gab es dort eine Mac G5 bereits zu sehen, allerdings nur der mit 1.6Ghz.
Wie ich sah war er doch während diese Zeit eine zihmlich Sensation, aber bis heute höre ich nichts mehr von Ihm, ist er jetzt doch ein Flop gewordenn? Er ist doch der erste richtige 64Bit Desktop CPU mit bis zu 8GB Ram und 8 Dimm Slots, er hat auch bereits PCI-X und Firewire 800 (~800MB/s Date Transfer). Warum passen sich die Normalen Desktop PC's das nicht an?

Der G5 hat zwar ein paar schöne eckdaten, bringt aber nicht das was er verspricht. zudem ist der Mac ja ein PPC (RISC-prozzi) und kein PC. 64bit prozzis für den desktop gibt es ja mittlerweile: der A64. und der bringt mehr leistung als ein G5.


zum thema kyro2 und T&L:
nein, ein kyro hat kein T&L, und somit auch der kyro2 nicht, da der kyro2 nur höher getaktet ist. Nur macht das nicht vorhanden sein von T&L die grakas besser skalierbar. Gab irgendwo mal ne schöne grafik(glaube in der CT) in der man sehen konnte, das die T&L karten(damals GF2) mit niedrigen prozzis klar vorne liegen, mit steigender CPU aber kaum leistungszuwachs zeigen. Die Kyro2 und V5 hingegen skalieren mit der cpu und sind bei einem Douron 1,2Ghz schneller als die GF2Ultra.
 
Jo, ist auch alt. Auf den alten Karten ging auch immer nur eins von beiden. Entweder T oder L, heute geht beides!
 
Original erstellt von douron
also die kyro 2 hatte technisch schon was drauf...schnelles anti aliasing, 16bit wie 32bit, intelligentes rendering konzept (tile based rendering), trotz günstigere sdr speicher beinahe so schnell wie grafikkarten mit ddr, nur die t&l-einheit fehlte...

das stimmt, die T&L Einheit hat gefehlt - im Nachhineinb betrachtet hat T&L aber sowieso nichts gebracht ...
 
wäre ja endlich mal wieder was positives.

ich meine chips und rams immer leistungsstärker aber leisten ihre arbeit komplett uneffizient. wenn ich mir da die kyro angucke, die bei spielen ohne T&L immer oben mitspielen konnte ziehe ich meinen hut =)

würd die karte sofort kaufen =D

btw wenn man kein deutsch kann dann versuch es doch einfach garnicht mit groß/kleinschreibung ;)
 
Zurück
Oben