• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News KI-Beschleuniger-Chip aus Israel

Ich finde interessant wie die Bilder die "politische Problematik" im entwicklerland treffen...
 
Ja und demnächst kommt noch ein Prozessor für MAUSEINGABEN usw.


Braucht keiner!!!
 
@domian

Die Mailadresse funktioniert nicht, kann ich dir meine Sachen per Post schicken ;)
 
Das selbe was mit der Havok-Engine auf ATI & Nvidia möglich sein wird, soll auch mit den anderen noch kommenden Features kommen. Btw.: Wer braucht denn so viel Low-Level KI, dass er sich dafür eine eigene Erweiterungskarte kauft? Eine höher Entwickelte Intelligent á la Crysis ist mir da viel lieber. Und da kommt es eben nicht auf die Rechenleistung an, sondern auf die Entwickler ;)
 
Eine KI-Karte ist sicher sinnvoller für Spieler als eine Karte für Physik. Denn erstere beeinflusst maßgeblich den Spielablauf, letztere dient wohl eher der Optik. Und ja, aktuelle CPUs reichen für derzeitige KI aus. Aber habt ihr euch schon mal gefragt warum in vielen Strategiespielen ein Einheitenlimit eingebaut ist? Oder warum sich die Einheiten ständig im Weg sind bzw. Umwege machen? Das liegt sicher nicht (nur) an schlechter KI-Programmierung sondern auch daran, dass eine wirklich gute Wegfindung oftmals selbst moderne CPUs maßlos überfordern würde...

Allerings dürfte es schwer sein, eine zusätzliche Karte zu vermarkten, denn eigentlich kann man eine solche Karte (im Gegensatz zu der Physik-Karte) in einem Spiel nur einbauen, wenn man davon ausgehen kann, dass jeder eine solche Karte hat. Und die Spieler werden sich so eine Karte nur zulegen, wenn es genügend gute Spiele gibt. Wirklich interessant könnte das ganz aber für die nächste Generation von Spielekonsolen werden.
 
Naja vonner sache her nette idee, aber der weg naja ...
Am besten kommt das teil dann auch noch auf PCI basis, dann habe ich ne PCI SAT karte, ne PCI X-FI, ne PCI PhysX und ne PCI KI Karte und noch 1-4 PCIe Grakas! Schonmal einer nochn PCIe Board gesehen welches 4 PCI und min. 2 PCIe 16x hat?
 
Erstaunlich, wieviel die Leute doch labern und so ihr geringes Wissen zeigen.


Habt ihr überhaupt nur den Hauch einer Ahnung, wie komplex und ressourcenfressend so eine KI ist?
Offenbar gar keine Ahnung.

Man nehme alleine nur die Schach-KIs, die brauchen Hochleistungsrechner, damit sie mit dem Menschen mithalten können. Eine KI, wie sie in Spielen benötigt wird, braucht wesentlich mehr Leistung als eine Schach-KI. Die kann ein normaler Desktop-PC aber nicht liefern, also wird die KI beschränkt.
Oder ist euch noch nie aufgefallen, dass sich die in Spielen verwendeten KIs in den letzten Jahren kaum weiterentwickelt haben?

Wie kommen eigendlich immer alle darauf, dass man mit ner 2 oder 3 GHz CPU einen Verstand simulieren könnte? Mit ner Exa Hertz CPU könnte es vielleicht gehen, aber nicht mit der aktuellen Hardware.
Wie kommt ihr eigendlich immer darauf, dass man mit einer logisch arbeitenden Hardware (CPU), eine lateral denkende Hardware (Gehirn) simulieren könnte? Das passt nicht zusammen.


Aber Hauptsache die Grafik stimmt! Die Massen sind so einfach zufrieden zu stellen. pff....
 
bessere ki oder vor allem abwechslerungsreichere ki ist sicherlich nötig(käme bei gta sehr geil), aber das muss man erst mal beweisen das das mit der cpu alleine nicht klappt
das ist ja schon bei der physik grenzwertig
 
Wieviele Transistoren kostet so eine Einheit?

Mittlerweile scheint die Fertigungstechnik den Fähigkeiten der Chipdesigner vorauszueilen, so dass den Entwicklern nichts mehr einfällt als mehrere CPUs auf einem Siliziumplättchen zu pappen. Also, wenn es nur ein paar Mios sind, rein damit in die CPU.

Erinnert sich noch jemand an Zeiten, wo die FPU ein separater Chip war?
 
Die Zeit kommt wieder. Es war glaube ich Intels Idee, alles auf der CPU rechnen zu lassen, ratet mal warum. Es wurde aber denke ich bei der Physx Karte gesagt, das die auch KI rechnen könnte?
 
@e-Laurin: du musst es ja wissen. :lol:

Schonmal auf die Idee gekommen, dass es einfach extrem schwer ist Intelligenz zu Programmieren ?
Grafik und Physik kann man mittels Formeln berechnen, das menschliche Hirn funktioniert wenig mathematisch (oder wir verstehen die Formeln nicht ;)).
Ob so ein Chip es besser machen würde ist noch die Frage, der rechnet auch nur mit Einsen und Nullen.

Zur Schach-"KI": Hier wird massig Rechenleistung gebraucht weil der PC schlichtweg Milliarden Kombinationen an möglichen Zügen durchrechnet, das hat rein gar nichts damit zu tun eine menschliche Intelligenz nachzuempfinden.

@alex22:
Wenn sich Physik, KI oder sonstwas (imo wider erwarten) durchsetzen sollte, dann werden Intel und AMD auf den Zug aufspringen, und etwas später der nächsten CPU-Generation weitere Einheiten hinzufügen, die ähnliche Funktionen berechnen können. Und schon braucht keiner mehr die Zusatzkarten.
 
Zuletzt bearbeitet:
@ Blutschlumpf

seh ich genauso.

Was sich da KI nennt ist aber leider in der Praxis nichts anderes als ein Chip, der milliarden Kombinationen an möglichen Entscheidungen durchrechnet. --> das man das aber dann KI nennt ist eine Farce!

Man sollte den Chip eher "Script Chip" nennen, weil er schlicht weg nichts anderes macht. Nur hab ich vielleicht nicht 2 Scriptmöglichkeiten, sondern aus gaaanz gaaanz vielen Scriptmöglichkeiten wird zufällig eine ausgewählt...
 
Naja, der KI-Chip soll auch garnicht menschliche Intelligenz nachempfinden. Es geht doch um die niederen (und daher allgemein benötigten) KI-Aufgaben, wie eben z.B. Wegfindung. Und der derzeitig gebräuchliche A*-Algorithmus macht letztlich nichts anderes als eine Unmenge an möglichen Wegen durchzuprobieren. Ein Rechenaufwand der je nach Kartengröße und komplexität für eine einzelne Einheit locker Minuten in Anspruch nehmen kann. Und ob dann auch tatsächlich ein vorhandener Weg gefunden wird ist auch noch fraglich.

Genau hier setzt der neue Chip ja an (z.B. verwendet er keine Heuristik - er findet also immer einen Weg, falls es denn einen Weg gibt. Außerdem ist er bei der Wegfindung 100-200 mal schneller als normale CPUs, da hilft auch kein Quadcore).
 
Das ist eben die Frage.
Beim klassischen Spiel welches für Single-CPU-Systeme in der Region 2 GHz programmiert ist funktioniert es ja ungefähr wie folgt (Werte geraten):
10% der CPU-Zeit gehen für Overhead drauf, 40% für die Grafik, 30% für nicht-KI-Berechnungen des Spiels (z.B. Physik), bleiben 20% für die KI
Sprich die KI-Leistung muss umgerechnet auf etwa 400MHz CPU-Leistung funktionieren.

Habe ich jetzt aber nen Quad-Core mit 4x 2GHz kann ein Core die Grafik machen, einer die nicht-KI Berechnungen und die letzten beiden den KI-Kram. Sowas wie Wegfindung sollte sich auch relativ gut in viele Threads teilen lassen.
Dann hast du 2x2GHz für KI, sprich das 10 fache von dem was jetzt benutzt werden kann. Ich weis, das ist noch was Zukunftsmusik und DC bringt derzeit noch nix, aber da wird es spätestens es in 3-5 Jahren hinlaufen.
Das Problem wird imo weiterhin die effektive Programmierung sein, egal welcher Chip benutzt wird.

Wenn man alles mögliche auf extra Chips verteilt zerstört das den Nutzen von Multi-Core CPUs und treibt nur den Stromverbrauch unnötig in die Höhe.
 
@Blutschlumpf
Ich habe nicht bestritten, dass es schwierig ist, eine vernünftige Intelligenz zu programmieren.
Es ging mir einfach nur auf den Keks, dass viele Leute hier so eine Karte prinzipiell für schei*e halten. Und das auch nur, weil sie einfach keine Ahnung haben.

Btw, ich programmiere hin und wieder etwas und setze mich daher auf die Liste der Leute, "die etwas mehr Ahnung haben".

Jetzt zu der Schach-KI: Die rechnet nicht nur zig mögliche Vorgehensweisen durch. Man geht immer mehr den Weg, ähnlich beim menschlichen Verstand, offensichtliche Fehlentscheidungen von vornherein auszusortieren. Der Mensch kann sagen, so und so geht das nicht. Ein Computer kann das (leider noch) nicht so einfach sagen, ohne es komplett durchrechnen zu müssen.

Deshalb finde ich, dass Schach-KIs sehr interessant sind, weil hier immer mehr das Prinzip der sinnvollen Entscheidungen auf den Computer übertragen werden. Im Moment können KIs ja den Unterschied zwischen sinnvoll und unsinnvoll nicht erkennen :-/

Man stelle sich mal einen intelligenten Tiberiumsammler in C&C vor, der entscheiden kann, ob es sinnvoll ist, das Tiberiumfeld bei der Feindbasis abzuernten und ob er dabei die Route durch eben diese Basis nehmen soll oder nicht ^^
 
Schachprogramme brauchen keine HighEnd-Hardware. 2005 in Bilbao hat Fritz auf einen Notebook gegen Schachweltmeister gewonnen. Klar es gibt z.B. noch dieses Hydra-Geblubber, die auf spezialHardware aufsetzen aber wenn mir ein handelsübliches Programm auf einen Notebook reicht, warum mehr investieren (bzw. irgendwas scheinen die ja falsch zu machen, wenn die soviel Leistung brauchen).

Zur KI-Karte
Die beschleunigt, wie hier doch schon ein paar Leute bemerkt haben nur Grundfunktionen, die ich nicht als KI bezeichnen würde. Diese werden halt sehr oft benötigt (und deshalb von der Karte beschleunigt). Was der KI-Entwickler daraus macht steht auf einen ganz anderen Blatt und wenn er Mist baut (wie in vielen bzgl. KI erst hochgelobten Spielen), dann hat man eben beschleunigte Künstliche Dummheit.

Anwendung würde ich hier eher analog zur PhysX sehen, "KI"-Berechnung für sehr viele Einheiten.

Meine Meinung:
Genauso wie die PhysX Karte unnötiger quark, der von der CPU/GPU (Bsp. Havok) Entwicklung entweder schon eingeholt wurde oder demnächst wird.

Statt verschiedene Karten für Physik, KI etc. zu haben, wäre mir eine freiprogrammierbare lieber (und am liebsten keine), damit könnte ich zumindest selber noch was anfangen oder Leute mit Spezialanwendungen.

@e-Laurin
Du meinst sowas wie z.B. Rybka?
 
Zuletzt bearbeitet:
wäre vielleicht besser wenn man die ganzen Chips einfach im Mainboard integriert und das ganze dann als Gamer Mainboard vermarktet, dann braucht man net 100 Steckkarten.
 
Ich finds auch lustig wie sich die Leute darüber aufregen. Fakt ist doch, dass spezialisierte Recheneinheiten bestimmte Dinge besser können als Multifunktionsrecheneinheiten. Oder versucht hier noch jemand CSS mit Softwarerendering zu spielen?
Ob die Karte was bringt und wie sich das auswirkt ist doch ersteinmal abzuwarten. Interessant finde ich es schon. Auch die Physikkarten sind interessant, nur gibts ebend zu wenige Spiele die einen sinnvollen Gebrauch machen. Und letztendlich freuen wir uns doch alle wenn die Spiele realistischer werden, oder?
 
Oh nein schon wieder ein neues bauteil,
was sich in stekkarten form etablieren will

jetzt mal ganz im ernst wer kauft sich einen
rechner mit mittelerweile dann 4 steckkarten
die dazu dann auch noch jedes jahr wieder
veralten ich find diese entwicklung eher nicht
wirklich toll wohingegen so einen
"gamer mainboard" idee wohl schon eher
etwas wäre
 
Zurück
Oben