• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News KI-Beschleuniger-Chip aus Israel

jetzt mal ganz im ernst wer kauft sich einen
rechner mit mittelerweile dann 4 steckkarten
die dazu dann auch noch jedes jahr wieder
veralten

Die PhysiX-karten sollen glaub ich bis zu drei Jahre halten, da man sie mit Firmware-Updates auf dem neusten Stand halten kann. Ist zwar dann "nur" eine von vier Karten aber dann hat man immerhin Geld gespart.

MFG Miggi
 
Eine GraKa mit GPU und 2 Co-Prozessoren fuer a) Physik und b) KI, da haette ich Spass dran... :)

@ AMD/ATi & nVidia: Kauft die Firmen auf! *gg*
 
@ 54

100 mal bis 200 mal schneller??? Das glaubst du doch wohl selber nicht, oder bist du einer aus der Fraktion, die auch glauben, dass die PS3 200 mal schneller rechnet als aktuelle PCs...eben nur auf...mhm..."anderer Weise" eben in ihren Anwedungen. --> Das ist absoluter Quark!

Für diesen 100mal, 1000mal Müll gibt es überhaupt keinen Vergleichsmaßstab. Da können Firmen immer irgendwelche blödsinnigen Thesen aufstellen. Ich kann noch so viel an einem Motor modifizieren, aber irgendwann stößt er an seine Leistungsgrenze, da Luft-, Rollwiderstand und Spritverbrauch exponentiell steigen.

Und diese Physikkarten und KI Karten haben nunmal nur einen sehr sehr kleinen Motor (für alle die mir nicht folgen können --> MHz) Da können die noch so viel in den Routinen und Algorithmen modifizieren.

@ 61

ich kaufe grundsätzlich nur Hardware, bei der ich überzeugt bin, dass sie ein paar Jahre "hält" und sich nicht gleich in Dunst auflöst ;).
Und das die Firmenphilosophie darauf abzielt, dass der Stuff ewig nicht ausgetauscht werden muss, kann ich nicht glauben. Also das wäre eine Unternehmen mit Idealismus, aber in unserer heutigen Welt leider ohne Geschäftssinn..
 
@domian : Ich habe es aber mal hier im Forum gelesen. in einem post von noxon...ich finde ihn aber leider grad nicht:(
Naja ich such weiter :)

MFG Miggi
 
Wahrscheinlich kommen bald Kombikarten auf den Markt.

Grafik, Pysik und KI auf EINER Karte!

Dann hätte die Bandbreite des PCIe wenigstens irgendeinen Sinn, gegenüber dem AGP.
 
@ 64

wenn du mir jetzt noch verrätst, was du gelesen hast, kann ich mit deiner Antwort auch was anfangen ;)
 
@domian :
Ich habe mich auf dein
Und das die Firmenphilosophie darauf abzielt, dass der Stuff ewig nicht ausgetauscht werden muss, kann ich nicht glauben.
bezogen.
Ich habe in dem Beitrag von noxon gelesen, dass man die Karte Up to date halten kann und somit alle paar Jahre erst eine neue kaufen muss ;)

MFG Miggi
 
Ich sag ja, lieber eine freiprogrammierbare, wo man dann eben von verschiedenen Herstellern die verschiedenen Beschleunigerfunktionen kaufen kann.

Eigentlich schon eine Geschäftsidee, wer will mitmachen?
 
Habt ihr euch noch nie gewundert warum bei euch dieses CPU-Benchmark in 3DBench2006 in 640x480 so ruckelt bzw langsam läuft? Genauuu, weils ne KI-Berechnung ist (Wegfindung mit A*). Bei 10 Objekten vielleicht kein Problem, aber bei >100 kommt eure CPU ins schwitzen. Von daher ist das schon keine schlechte Idee.

Die Idee mit dem Gamer-Mainboard, bei dem Physx- und KI-Beschleuinger OnBoard sind, übrigens auch nicht.
 
@fandre:
So ein frei programmierbares Produkt gibts schon, wird derzeit primär angeboten von Intel und AMD. Nennt sich CPU ;)
 
@Domian: Das 100-200 mal schneller ist nicht ganz aus der Luft gegriffen, sondern beruht auf Benchmarks (wobei ich mich bei dem angegebenen Wert azugegebenermaßen auf den Hersteller verlassen muss).

Zitat:
"The Intia’s pathfinding is not only optimal, it is also extremely fast. Processing time for
each 100 nodes of path depth is only 10μs, making the Intia processor about 100-200
times faster than A*"

Im Gegensatz zur PS3 macht es aber wenig Sinn bei diesen Zahlen das blaue vom Himmel zu erzählen. Oder glaubst du, eine Firma steckt eine Menge Geld in die Entwicklung und Vermarktung eines Chips, der dann einer normalen CPU (im anvisierten Spezialgebiet) total unterlegen ist, und sich daher definitiv nicht verkaufen lässt?

Im übrigen steht es doch ganz außer Frage, dass für spezielle Anwendungen ausgelegte Chips einer allgemeinen CPU weit (!!!) überlegen sind. Hast du dich nie gefragt, warum du eine Grafikkarte in deinem PC stecken hast? Bei der Grafik hat es sich halt durchgesetzt, weil der Mehrgewinn durch verbesserte Optik den einsatz spezieller Karten rechtfertigt. Ob man diesen Schritt auch in anderen Bereichen geht, muss sich noch zeigen. Auf jedenfall bietet die KI genug Leistungshunger um mit einer Speziallösung deutlich verbessert zu werden (ob eine bessere KI letztlich das Mehrgeld wert ist entscheidet der Spieler).

Übrigens werden in vielen Spielen die Routen von NPC's im Vorfeld berechnet, weil die Echtzeitberechnung während des Spiels zu aufwändig wäre.
 
Bin ich der einzige der das Demo-Szenario + Herkunftsland des KI-Chipbeschleunigers "lustig" findet?!:D
Alles ein Schlag da....
 
Ich glaube FPGAs wären hier nichts halbes und nichts ganzes, da die Leistung und die benötigte Chipfläche nicht an die von entsprechenden ASICs rankommt.
Sprich es wäre vielleicht leistungsfähiger, aber dann sich auch auf Kosten des Energieverbrauchs, der nicht ohne sein wird.
Entsprechende Implementierungen/Erweiterungen für die wichtigsten Funktionen a la MMX, SSE, 3DNow in die CPU wären imo immer noch die erfolgversprechendste Lösung sofern sowas überhaupt notwendig ist. Ich glaube dass in ein paar Jahren normale CPUs so viel Power haben, dass das alles überflüssig ist.
 
Nicht unbedingt bzw. nicht in dem Maße wie andere Anforderungen steigen.
Wenn ich die Anzahl der Poligone eines Baumes von 500 auf 50.000 erhöhe, also Faktor 100, dann braucht meine Graka evtl. das 100fache an Leistung, aber die Routine die berechnet wie meine Person um den baum rumläuft kann gleich bleiben.
 
Ich kündige hiermit meinen eigenen Beschleuniger der speziell für die Simulation von echten Reifen zuständig ist.
Ja sie hören richtig meine Damen und Herren: REIFEN!
So realistisch konnten noch nie zuvor Reifen berechnet werden. Mischung, Reifenhersteller und Untergrund angeben und die Beschleuniger Karte kann ihnen ganz genau berechnen wie die Reifen reagieren und die kinetische Energie frei- und weitergeben.
Da vor allem immer mehr Spiele solche Features gerne nutzen ist unser Chip als SLI-Version für Motorad-Spiele und Quad-SLI für Autorenn-Spiele äußerst geeignet.
An einer Lösung um das selbe Spielerlebnis auch für Truckrennspiele, welche 6 bzw. 8 Reifen-Chips benötigen, möglich zu machen, wird mit Hochdruck gearbeitet.

Greifen sie jetzt zu und erleben sie schon heute die Zukunft! :lol:
 
hm, keine Ahnung ob es noch was bringt sich hier zu melden, zumal viele Besucher alte Kommentare ja eh nicht lesen, aber trotzdem gebe ich mal meinen Senf dazu (sind nur ein paar Denkanstöße mit dem Bemühen um ein wenig Faktennähe):
vorn weg: ich hab noch nie eine KI (oder wohl besser KD) für ein Spiel programmiert und kann wirklich nicht einschätzen, was da so angestellt wird. Ich vermute aber, dass es über Graphenalgorithmen und einfache Agentensysteme nicht hinausgeht. Auch die Seite von aiseek habe ich mir nur oberflächlich angesehen. Ich will eher auf andere Kommentare hier im Forum eingehen.
Jetzt also meine Punkte:

1.) der erste Punkt nur für alle, die immer mit dem Argument der 3D-Beschleuniger ankommen:
selbst die billigste Transformation und Projektion eines einzelnen Eckpunktes erfordert bereits die Multiplikation einer homogenen Koordinate mit einer 4x4 Matrix (zumindest in der Theorie, wer mich wiederlegen kann solls sagen). Da kommen verdammt viele Berechnungen zusammen, die sich auf den FPUs einer CPU eher mühsam gestalten werden. Allerdings sind viele Operationen voneinander unabhängig und können so schön parallelisiert werden. Die Unabhängigkeit gilt ja scheinbar auch auf der nächsthöheren Ebene (die Menge der Vertexe) und deshalb ist zur Berechnung ein Chip ideal, der mit niedrigem Takt eine unmenge paralleler, spezialisierter Berechnung ausführt, ebene eine GPU. Ich würde zumindest anzweifeln, dass dieser Sachverhalt einfach so auf KIs übertragbar ist.
2.)Ich konnte den Hype um die Physikbeschleuniger noch verstehen. Der Knackpunkt ist ja, dass Physikberechnungen (mal eben im Gedächtnis kram), selbst oder gerade die in Spielen schon relativ weit verbreitete Mechanik, Differential- und Integralrechnungen benötigen. Vielleicht lässt sich da auch schummeln, aber das weiß ich nicht. Wurzelziehen kommt noch dazu. Alles Operationen also, die sich nicht so ohne weiteres auf eine Schaltung Abbilden lassen (im Gegensatz zu Addition und Multiplikation). Evtl. lässt sich hier auf einer speziellen Hardware wirklich eine bessere Lösung finden, die auf einer normale CPU nur Ballast wäre.
3.) Die direkte Mathematik hinter den Teilen der KI, die ich bisher gesehen habe (Wegfindung, Agentensysteme, Problemlösen durch Suchen, neuronale Netze, Planungssprachen) ist relativ trivial (nicht die Theorie, aber eben das, was am Ende wirklich berechnet werden muss). Da gehts im wesentlichen um schnelle Speicherzugriffe, Integer- und FP-Performance. Und solange hier keine massive Parallelisierung möglich ist, kann nichts, aber auch gar nichts, einer gewöhnlichen CPU das Wasser reichen. Der hier oft beschworene A* ist beispielsweise hochgradig sequentiell, da nützen einem alle Cores der Welt nichts. Und ob ich jetzt unbedingt sehen möchte, wie die Einheiten in einem Strategiespiel unabhängig voneinander ihre Wege planen...
4.) Wo wir gerade beim A* sind: der ist optimal (in dem Sinne, dass er einen vorhanden Weg immer findet) und angeblich unter den informierten Suchverfahren sogar optimal effizient. Wenn die Herren Entwickler der Karte einen Graphalgorithmus gefunden haben der signifikant besser ist, müssen sie vermutlich keine Erweiterungskarten mehr verkaufen sondern können sich zur Ruhe setzen. Nebenbei ist A* für kleine Probleme eh recht fix, ich habe erlebt, wie auf einem 6MHz MC68000 ein kleiner Industrieroboter den Weg für seinen Greifer durch ein 3D-Labirinth ausgerechnet hat. Da würde ich mir jetzt keine größeren Sorgen machen.
Also entweder haben die Israelis einen komplett neuen Ansatz der nicht auf dem üblich Graphenkram basiert, oder sie sollten sich dringend bei den Herren Russel und Norvig melden... (ich meine mich aber zu erinnern, dass die meister Probleme auf Graphen in ihrer Komplexität quadratisch oder schlimmer sind, so schnell kann die Hardware gar nicht schneller werden wie das Problem aufwendiger).
5.) weiter oben meinte jemand, FPGAs wären ganz toll für solche Aufgaben. Ich finde den Vorschlag an sich gar nicht dumm, weil man sich halt Hardware für die gerade anfallende Aufgabe hinbiegen könnte (das Beschreiben dauert aber einen Moment, also zu viele Wechsel des Inhalts sollten nicht stattfinden). Allerdings ist fraglich, ob der Aufwand den Erfolg rechtfertig. Nur mal so als Hausnummer: auf einem schon recht großen (aber noch bezahlbaren) Spartan 3E von Xilinx lässt sich eine 32Bit-Multiplikation auf interne 18Bit-Multiplizierer abbilden. Laut Datenblatt ist dann ein Takt von ca. 200Mhz möglich, allerding umfasst die Multiplikation auch 7 (oder waren es 5 ?) Pipelinestufen. Übermäßig schnell wird die Sache damit also auch nicht. Und ob sich auf einem solchen Baustein besonders viele ALUs parallel realisieren und schnell genug mit Daten versorgen lassen will ich lieber erst gar nicht beurteilen.
6) Puh, ich bin sicher, das ich noch mehr dazu schreiben wollte, aber mir fällts nicht mehr ein. In jedem Fall aber folgende Bitte an alle, die das hier lesen: wenn euch das nächste mal jemand sagt, dass Hardware XY irgend etwas schneller macht als CPU KL weil sie ja viel besser auf das Problem AB abgestimmt ist, dann denkt bitte daran, dass viele Probleme (im IT-Bereich) im Wesentlichen die schnelle Ausführung trivialer arithmetischer oder logischer Operationen erfordern. Und das können CPUs nun wirklich verdammt gut. Mich regt eh auf, dass Hardwareredaktionen Land auf Land ab immer diesen Mist nachbeten, und ich meine wirklich von der letzten Spielezeitschrift bis hoch zur Ct. Ich bin mir relativ sicher, dass da keiner einen Blick auf die zugrundeliegende Architektur geworfen hat (wie auch, keine Firma, von Sun mal abgesehen, gibt sowas frei). Deshalb ist es einfach schwer, eine sinnvolle, objektive Meinung zu solchen "x mal schneller"-Aussagen zu haben.
7) ha, der muss noch sein: wenn ich mir ein Board mit 2 Sockeln kaufe und eine zusätzliche CPU einbaue, wird das Spiel potentiell schneller laufen, insofern ist eine Geschwindigkeitssteigerung durch Zusatzhardware natürlich auch immer drin.


Fazit: ich kann wirklich nicht objektiv beurteilen, ob solche Karten nun was bringen oder nicht und wollte nur ein paar greifbarere Aussagen zur Diskussion stellen. Ich hoffe, dabei niemandem auf die Füße getreten zu sein.
Ausdruck und Rechtschreibung schiebe ich einfach mal auf meinen Zustand (*müde*), inhaltliche Fehler dürfen gern angekreidet werden :-)

mfg

Finkenelch
 
Blutschlumpf schrieb:
Nicht unbedingt bzw. nicht in dem Maße wie andere Anforderungen steigen.
Wenn ich die Anzahl der Poligone eines Baumes von 500 auf 50.000 erhöhe, also Faktor 100, dann braucht meine Graka evtl. das 100fache an Leistung, aber die Routine die berechnet wie meine Person um den baum rumläuft kann gleich bleiben.
Tja, man könnte aber auch sagen, man baut statt 256x256 Karten welche mit 1024x1024. Dabei würde der Rechenaufwand für die Wegfindung vermutlich deutlich mehr als nur um den Faktor 100 steigen.
 
Zurück
Oben