• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News KI-Beschleuniger-Chip aus Israel

Finkenelch schrieb:
4.) Wo wir gerade beim A* sind: der ist optimal (in dem Sinne, dass er einen vorhanden Weg immer findet) und angeblich unter den informierten Suchverfahren sogar optimal effizient.
Nur wenn man eine geeignete Heuristik verwendet (und nur dann ist der kürzeste Weg als Ergebnis sicher).
Und hier noch ein Link, wie man den A* parallelisieren kann (und wie sich daraus die Berechnungszeiten reduzieren - das Problem ist also sehr wohl mit Grafikbeschleunigern zu vergleichen):
http://www.ubka.uni-karlsruhe.de/cgi-bin/psview?document=/ira/1997/20&search=/ira/1997/20
 
War abzusehen.

Aber ob sich das jemals durchsetzen wird, ist äußerst fraglich.
Denn wenn z.B. die Wegroutine, wie in C&C Generals, schlecht programmiert ist, nützt der schnellste Rechner nix, der rechnet sich trotzdem tot.
Und bis genügend Spiele rauskommen, die deutlich davon profitieren würden, gibts wohl schon Many-Core-CPUs mit bis zu über 100 Cores und ner Rechenleistung von mehreren hundert GFlops. Da braucht man so nen Quatsch wie KI- und Physikbeschleuniger nimmer. ;)
 
cR@zY.EnGi.GeR schrieb:
War abzusehen.

Aber ob sich das jemals durchsetzen wird, ist äußerst fraglich.
Denn wenn z.B. die Wegroutine, wie in C&C Generals, schlecht programmiert ist, nützt der schnellste Rechner nix, der rechnet sich trotzdem tot.
Und bis genügend Spiele rauskommen, die deutlich davon profitieren würden, gibts wohl schon Many-Core-CPUs mit bis zu über 100 Cores und ner Rechenleistung von mehreren hundert GFlops. Da braucht man so nen Quatsch wie KI- und Physikbeschleuniger nimmer. ;)

meine Rede

Ansonsten einfach auf der GPU ausrechnen lassen. Für alle die meinen, dass man mit GPU nichts anfangen kann als rendern:

http://www.gpgpu.org/
 
Zuletzt bearbeitet:
@81
Puh, 2 Uhr nachts noch so ein Hammer. Aber danke für das Dokument, habs bis inkl. Kapitel 5 mal eben überflogen und finde es recht interessant.

zum 1. Punkt: ja, die Sache mit der Heuristik hätte ich mit angeben müssen. Nur bin ich einfach davon ausgegangen, dass in einer virtuellen Umgebung eine geeignete Heuristik eh zur Verfügung steht. Abstand Luftlinie eben. Die aiseek-FAQ spricht aber ohnehin vom Einsatz eines Suchverfahrens ohne Heuristik, A* kommt also gar nicht in Frage.

zum 2. Punkt: also jetzt wirds heftig, ich habe doch glatt nochmal Stoff einer längst geschriebenen Klausur rausgeholt wegen der Sache mit dem mehrdimensionalen Konfigurationsraum. Als ich weiter oben meine Argumentation vorgebracht habe, hatte ich eigentlich nicht wirklich einen Roboter im Kopf sondern bin von einer "Fracht" ohne rotatorische Freiheitsgrade ausgegangen. Wenn ich richtig gelesen habe, basiert der Parallelisierungsansatz ja auf dem Verteilen der n Konfigurationsebenen bei rotatorischen Freiheitsgraden auf die CPUs. Du hast offenbar vollkommen recht, dass man für diesen Fall parallelisieren kann. Frage ist, wie aufwendig heute in Computerspielen die Wegfindung durchgeführt wird, also ob da wirklich zig diskrete "Panzerorientierungen" für jede Phase der A*-Suche probiert werden. Ich kann es wirklich nicht beurteilen, würde aber Zweifel anmelden. Und wie gesagt, für mich liest sich dass so, das ohne rotatorische Freiheitsgrade weiterhin keine effiziente Parallelisierung möglich ist.
In jedem Fall aber wieder was gelernt :-) Man könnte eine KI-Karte natürlich auch zur Steuerung realer Roboter einsetzen...

Nebenbei könnte es sein, dass sich bei näherer Betrachtung auch in anderen Bereichen der KI Parallelisierungsmöglichkeiten auftun. Bei einem komplexen Neuronalen Netz ließe sich die Inputpropagation vermutlich ganz ordentlich aufteilen, auch das Lernverfahren bis zu einem gewissen Grad. Und wenn Agenten alle gleichzeitig vom selben Wissen ausgehen... aber lassen wir das.

Bleibt die Frage, auf welchen Grundlagen Spiele-KI heute basiert, das was ich bisher erlebt habe war jedenfalls nicht unbedingt berauschend. Aber ich kenne eben auch keinen waschechten KI-Programmierer. Ohne das theoretische Wissen nützt halt die schöne Rechenleistung gar nichts.

In jedem Fall danke für den aufschlussreichen Beitrag

mfg
Finkenelch
 
er meint wohl eher, dass z.B. Graphikkarten der in höheren Leistungsklassen z.B. extrem teuer sind oder eben Zusatzkarten.

Der Preis für "Standard"rechner ist ja wirklich gefallen.
 
Finkenelch schrieb:
Fazit: ich kann wirklich nicht objektiv beurteilen, ob solche Karten nun was bringen oder nicht und wollte nur ein paar greifbarere Aussagen zur Diskussion stellen. Ich hoffe, dabei niemandem auf die Füße getreten zu sein.

Kann mich dem nur anschließen.
Geht man davon aus, das die CPUs immer schneller werden, hätte man auch auf 3D Beschleuniger verzichten können. Wir haben ja bald 4+ Cores. :rolleyes:

Ich habe auch noch keine KI programmiert. Aber der Fakt, das 100% der Computergegner immer noch verhältnismäßig sackdoof sind (Auch Fear+Far Cry, die schließe ich mit ein), kann es nicht so einfach und ressourcenschonend sein.

Von daher warte ich lieber einen möglichst objektiven Test dieser Dinger ab bevor ich mit Sinn- oder Unsinnsgeschrei aus dem Fenster lehne.

Finkenelch schrieb da wirklich ein paar gute Sachen, lestst euch durch.
Auch wenn es spitze wäre, wenn er den Beitrag nochmal formatieren würde. Das ist so fast unlesbar wenn man sich nicht zwingt.

@Fandre:
Für 300 bis 350€ bekommt man bereits eine Highend-Karte. Meine Geforce 1 hat damals fast 700DM gekostet.
Klar, das Topmodell kostet mehr. Das braucht aber auch kein Mensch zum Zocken.
 
@5:
Man könnte doch versuchen einzelne Kerne eines Prozessors direkt auf sowas auszulegen oder?..
Heisst 2 "normale CPU´s" , eine abgestimmt für physics berechnungen und eine für KI oder so?

Abgesehen davon, dass es warscheinlich ungeheur kosten- und entwicklungsaufwendig ist, aber das wär doch mal ne nette Lösung^^ :evillol:


AMD versucht sowas gerade im Servermarkt. Dort gibt es HTX Steckkarten, die z.B als CoProzessor für Java Anwendungen dienen
 
Prinizipiell nicht schlecht, wenn man bedenkt, was man damit machen KANN. NUR: Solange kein Spiele(?)-Entwickler die Technik nutzt (Programmieraufwand...) wird wohl auch keiner eine solche Karte kaufen. Und wenn keiner eine kauft, dann wird es wiederum auch keine Spiele dafür geben... Ein ewiger Teufelskreis...

Alle die nur die ganze Zeit maulen und absolut HIRNLOSE Kommentare abgeben ala
Lord Homer schrieb:
hab mir gerade das erst vido angeguckt DIE KI IST TOTAL FÜR´N ARSCH
In einer scene werden die eigenen soldaten von herrunterfallenten steinen getötet die ihr eigenen panzer zerschossen hat (oben recht im bild)
sollten mal anfangen zu denken. -> Wenn man nämlich LESEN würde, wüsste man, dass der Panzer NICHT KI-gesteuert ist. Sinn des Videos ist nämlich eine möglichst "dynamische Umgebung"...

Trotzdem ist KI nicht wirklich wichtig (zumindest nicht in dem Ausmaß)... wenn ich ein "Massen-Gefecht" haben will, spiele ich doch lieber online. Was die Single Player (->Crysis) spiele betrifft, kommen diese wirklich problemlos ohne eine solche Karte aus. Physik ist dann doch vieeel wichtiger.
Aber wie gesagt: Auskommen würde wir auch ohne Grafikkarte, nur mit gibts (wesentlich) mehr Effekte und ein "bisschen mehr" als MS-DOS-Grafik. Genau das gleiche gilt auch für Physikbeschleuniger und diese KI-Karte: Gehen tuts auch ohne, aber mit wäre weit mehr an Effekten&dergleichen drinn'! Nur das wollen einige hier nicht begreifen.

Irgendwie könnte man so einen Chip auch für die militärische Kriegsführung verwenden...
 
HighTech-Freak schrieb:
wenn ich ein "Massen-Gefecht" haben will, spiele ich doch lieber online.

Vergiss´ nicht die Total War Reihe.
Ich möchte sowas wie "Rome", nur das jeder Soldat eine F.E.A.R.-mäßige KI besitzt. :)
 
@Fandre:
Für 300 bis 350€ bekommt man bereits eine Highend-Karte. Meine Geforce 1 hat damals fast 700DM gekostet.
Klar, das Topmodell kostet mehr. Das braucht aber auch kein Mensch zum Zocken.

Also nicht billiger geworden oder was willst du jetzt damit sagen. Dann sind wir doch einer Meinung, Office/Internet/FIlme Rechner gibt es für teilweise unter 300e und was zum Zocken kostet immernoch (relativ viel) Geld. Darum ging es doch.

Und für die meisten sind 350e für "unterstes HighEnd" schon teuer.

AMD versucht sowas gerade im Servermarkt. Dort gibt es HTX Steckkarten, die z.B als CoProzessor für Java Anwendungen dienen

Das ist bereits ein alter Hut. Es gibt ja schon seit längern, Java Beschleuniger, Datenbank Zugriffsbeschleuniger, selbst sogar spezielle Linux Beschleuniger und das tolle, man kann ganz viele davon gleichzeitig verbauen, z.B. von Sun und IBM.

Achso gibt es sogar fürs Handy, z.B. ARM verkauft dafür die IP (Intelectual Property), damit andere das in ihre Designs aufnehmen.
 
Zuletzt bearbeitet:
@81: Hmm, ich bin mir nicht sicher, ob als Heuristik immer die Luftlinie geeignet ist, vor allem dann nicht, wenn je nach Boden (Fels, Sand etc.) unterschiedlich gewichtet wird.

Und ich muss zugeben, ich bin auch kein KI-Programmierer. Meine Erfahrung beschränkt sich eigentlich auf das Projekt X-Force. Und dort hatten/haben wir große Probleme mit der Wegfindung (obwohl immer nur eine Einheit laufen muss), weil es gerade bei Einheiten, die viele Felder pro Zug zurücklegen können (Bodeneinsätze in X-Force sind Rundenbasiert) zu erheblichen Wartezeiten kommen kann (einige Sekunden für 1 Einheit ist kein Problem). Und wir benutzen da auch A*. Auch wird nicht immer der beste Weg gefunden.

Da wir aber auch keinen Programmierer im Team haben, der sich mit KI auskennt, ist es natürlich möglich, dass sich der Code noch deutlich optimieren ließe.

Was die Parallelisierbarkeit angeht, gebe ich dir recht: ein Roboterarm ist wohl etwas anderes als eine einzelne Einheit. Aber spätestens wenn man Bewegungen in Formationen berechnen will, sollten sich parallelen finden.

Und noch eines ist sicher: Die schlechte KI (bezogen auf Wegfindung etc.) liegt bei komerziellenSpielen ganz sicher nicht hauptsächlich an schlechter Programmierung (schließlich haben sich genug Mathematiker mit dem Problem befasst, und optimierte Algorithmen dafür erstellt, die jeder im Internet finden kann), sondern eben daran, dass das Problem für heutige Rechner viel zu aufwändig ist, so dass sehrt viele Kompromisse eingegangen werden müssen (Einheitenlimit; Kartengröße; Kollisionsabfrage; Aktualisierungsfrequenz bei dynamischen Karten - schließlich könnte eine andere Einheit plötzlich den Weg versperren; Größe der erlaubten Formationen; Aktivität von NPCs in RPGs beschränkt sich oft auf unmittelbare Umgebung des Spielers -wenn sie nicht gleich starr vorgegeben ist, ...)
 
Zuletzt bearbeitet:
Vielleicht werden die Algorithmen ja weitestgehend hartverdrahtet implementiert, anstatt einfach nur als Programm "abzulaufen".

Jetzt tönen wieder alle und später wird vielleicht jeder Spielerechner einen KI-Beschleuniger verbaut haben...
 
Preis?
PCI oder PCI-E Slot?
Releasedate?
vorraussichtliche Spieleunterstützung?

wenn das festeht könne mer weiter reden...

an sich bin ich immer offen für neues aber bis und ob überhaupt sich das mal etabliert, kann ewig dauern (genauso beim Physik krempelz!)
Oder haben alle aktuell erscheinenden Spiele schon 64bit unterstützung? Von Dual Core oder SLI will ich garnich anfangen das ja noch neuer ;P
 
Releasedate ?

Es gibt nichtmal sowas wie Baupläne für den Chip, das Ding ist nur ein Gedankenspiel, da ist noch nichts entwickelt.
 
Wirklich nicht schlecht. Sehe leider trotzdem wenig Chancen. Schade eigentlich.
Für den Konsolenmarkt sicher sehr interessant, da es dort kein Problem mit der Verfügbarkeit gibt.

Für den PC maximal als eine Art Gamer-Kombikarte, wo alles auf einer Karte ist, also Graka, Sound, PhysX, Ki und weiss der Geier.

Dennoch, wird sich sowas vorallem am PC nur sehr schwer durchsetzen, da beide Seiten die Vorausetzungen erfüllen müssten,
Einerseits genügend Kunden, die entsprechende Hardware besitzen und andererseits Entwickler, welche ausreichend entsprechende Software zur Verfügung stellen, damit die Kunden sich überhaupt die Hardware zulegen. Da beisst sich die Katze in den Schwanz.

Dafür ist ein PC zu modular. Und die Spieleentwickler haben ja jetzt schon genug Kombinationen zu berücksichtigen. Aufwand und Kosten würden wohl in keinem Verhältnis dazu stehen.
 
Wie will man bitte eine Gamer-kombikarte bauen? Wie soll das ganze denn gekühlt werden?
Gerade bei der von Relict angesprochenen Variante (Grafik, Sound, PhysiX und KI) das sind ja mindestens 4Prozessoren und die wollen ordentlich gekühlt und mit Strom versorgt werden.

MFG Miggi
 
@Miggi: Hab mich hierrauf berufen, aber ehrlich gesagt mir den Kram auf der Webseite nicht ganz durchgelesen:
10tacle schrieb:
Die Firma hat noch nichts in diese Richtung entwickelt, man sondiert erst den Markt ob sowas überhaupt benötigt wird und sich überhaupt jemand findet des das auch nutzen möchte. Das Video wurde somit auch nicht von einem Prototyp der Karte erstellt und ist wohl einfach nur vorgerendert. Steht übrigens alles auf der Page von AIseek zum nachlesen.
 
Zurück
Oben