News Video: CUDA berechnet KI von 1.024 Flugzeugen

Weltenspinner schrieb:
Ach, CPUs. Wer braucht die schon?
Die können die Daten zurecht legen
und alles organisieren. Die simple
Rechenarbeit sollte man GPUs überlassen. :D

Das mag platt klingen, aber genau dahin geht die Tendenz inzwischen. Evtl. noch mit Ausnahme von Floats mit 128Bit; da sind GPUs nämlich arschlangsam. CPU#0 erledigt das OS im Hintergrund, #1 organisiert die Daten von der Platte und #2 und #3 bedienen die GPU (einer für rein, einer für raus). Wobei man bei dem bisherigen Aufwand dann noch #0+#1 bzw. #2+#3 zusammenlegen kann - womit dann beim Dualcore sogar schon Ende is... Kurz: Die Zeiten, in denen größere CPUs Spielern irgendwas bringen, dürften erstmal vorbei sein.
 
theorist schrieb:
Da hätte man vor der Veröffentlichung auch noch mehr Action einbauen können, d.h. ein richtiges Schlachtfeld draus machen, auf dem sich gegnerische Flugzeuge gegenseitig abballern. Die abgeschossenen Flugzeuge stürzen dann ab und zertrümmern beim Aufprall ordentlich.
Ja, das wäre doch was gewesen, Flugzeuge in 2 Farben, und dann kämpft Rot gegen Grün und auf einmal sind es keine 1024 Flugzeuge mehr, sondern nur noch 40. :evillol:
 
Und drei mal darfst du raten wer die Schlacht gewinnt^^ Rot oder Grün ;)

Nvidia investiert ja einiges in die Forschung von Cuda. Finde ich auch gut. GPUGP dürfte einiges an fortschritt bringen. Mir währe aber ein einheitliches offene und freies Standart lieber. Ich hoffe diesmal stellt sich die Khronos Group vernünftig an!

2 Schnittstellen, von jedem Hersteller eine wäre für Softwareproduzenten und Enduser suboptimal (wird sich auf dauer auch nicht durchsetzen!). Und ein unfreie von einem Softwergigant kontrollierte Schnittstelle (DirectGPUGP) wäre auf lange Sicht Starr und ein Problem für ATI und NVIDIA, da es schwer wird eigene Entwicklungen und Invovationen einfließen zu lassen.
 
Zuletzt bearbeitet:
TheK schrieb:
Die Zeiten, in denen größere CPUs Spielern irgendwas bringen, dürften erstmal vorbei sein.
Nur solange, bis die Grakahersteller endgültig den Karren vor die Wand fahren. Grafikkarten benötigen heute schon gut doppelt so viel Energie wie CPUs. Es geht so weit, dass die Dinger bei 90°C köcheln, obwohl ihre Kühler mit 60+ dB zwangsbeatmet werden.
 
Ja, das wäre doch was gewesen, Flugzeuge in 2 Farben, und dann kämpft Rot gegen Grün und auf einmal sind es keine 1024 Flugzeuge mehr, sondern nur noch 40.

Blödsinn! Paar Flugzeuge mit rauch, geknall und explosion konnte schon meine ATi9800Pro darstellen!
Da wirds wohl son CUDA Quark bringen!

Und drei mal darfst du raten wer die Schlacht gewinnt^^ Rot oder Grün

Nettes Wortspiel - wir werden sehen wann die RoteFraktion HAVOK richtig geschissen bekommt, vll. traun die sich dann auch mal an sowas.

Nur solange, bis die Grakahersteller endgültig den Karren vor die Wand fahren. Grafikkarten benötigen heute schon gut doppelt so viel Energie wie CPUs. Es geht so weit, dass die Dinger bei 90°C köcheln, obwohl ihre Kühler mit 60+ dB zwangsbeatmet werden.

Die Uneffizienz der GPUs ist einigen nicht klar! Der GPU an sich kann mit 200W Leistungsaufnahme theoretisch viel mehr als er heute tut.
Liegt daran das wir noch in Pixeln rechnen und grade AA und Co. sich exponentiell verhält!
Dagegen gibt es Lösungen die seit Jahren im Filmgeschäft und der Animationstechnik herhalten - aber die "Spielebranche"/"Grafikkartenbranche", oder wem auch immer der Schuh anzuziehen ist, lässt sich darauf noch nicht ein - warum? Weiß ich auch nicht.
 
Zuletzt bearbeitet:
wow endlich ein erstes lebenszeichen einer echten k.i. :)
auch wenn wir von der praktischen anwendung in spielen sicher noch jahre entfernt sind, also das bots den gegebenen umständen entsprechend reagieren und nicht nur gem. skript ihre vorgegebene tätigkeit ausführen und man spätestens beim dritten mal zocken der map genau weis, wann wo ein bot auftaucht und was er tun wird.

mir persönlich gefällt es sehr gut, dass die entwicklung auch abseits der reinen optik vorranschreitet und ich hoffe, dass auch ati auf den zug aufspringt und sich beide gegenseitig mit physik und k.i. überbieten werden ;)

@DUNnet: ich glaube, du hast den sinn der aktion nicht ganz verstanden. es geht nicht darum, wie toll die flugzeuge aussehn, sondern dass sie eigenständig entscheiden, wie sie fliegen. es geht um die k.i. theoretisch hätte man auch strichmänchen aus 16 pixeln nehmen können. das beeindruckende ist nicht wie es aussieht sondern wie es handelt.

und was die effiziens angeht verstehe ich deine argumentation auch nicht so ganz. warum soll eine gpu bei zehnfacher rechenleistung mit dreifachem verbrauch ineffizienter sein? wie effizient eine cpu oder gpu arbeitet kommt auf das einsatzgebiet an.
 
Zuletzt bearbeitet:
Lübke schrieb:
wow endlich ein erstes lebenszeichen einer echten k.i.
Wo ?
Bei dem Video ? Da ist in etwa soviel KI drin wie guter Geschmack in Pepsi light. ;)
 
wir werden sehen wann die RoteFraktion HAVOK richtig geschissen bekommt,

Cuda != Havok

Havok ist eine Physik Engine. Cuda eine Schnittstelle für GPUGP. Havok läuft AFAIK schon ewig (seit HL2?). Und Cuda wird hoffentlich von einem Standart (OpenCL) abgelöst.
 
DUNnet schrieb:
Die Uneffizienz der GPUs
Von Uneffizienz kann keine Rede sein. Der Aufwand, der mittlerweile in jeden einzelnen Frame fließt ist beinahe unvorstellbar. Dabei wird selbst in Crysis und Konsorten noch genauso unvorstellbar viel abgekürzt...
Klar sind die Teraflop-Hausnummern, in denen sich aktuelle Grafikkarten bewegen extrem geschönt. Bei Nvidia reduziert sich die tatsächliche Leistung im schlimmsten Fall auf die Hälfte, bei AMD sogar auf ein Fünftel.
Grafikkarten bleiben - vorerst zumindest - plumpe Rechenmonster, die mit der Rafinesse einer ausgewachsenen CPU nicht mithalten können.

@Lübke und Co.: Blutschlumpf hat da absolut recht. Von ausgewachsener KI kann keine Rede sein. Kollisionsvermeidung ist eine simple Sache. Ob sie tatsächlich funktioniert können wir als Betrachter bei der Menge an Objekten garnicht feststellen; schon garnicht bei Youtube-Qualität.
 
Zuletzt bearbeitet:
ich glaub einige haben ne falsche vorstellung von KI. ne KI muss nicht lernen können oderso um ne KI zu sein. in diesem falle weiss die KI das sie sich bewegt und kann feststellen ob sie auf kollisionskurs ist oder nicht. sie weiss auch das sie 10 möglichkeiten hat auszuweichen und findet immer einen weg ohne irgendwo reinzufliegen. das hat nicht wirklich was mit skripts zu tun. denn dann hätten alle ne gleiche flugbahn und würden nicht reagieren wenn was in ihre flugbahn kommt. von daher gibts hier schon KI. und das für 1024 kleine flugzeuge in sonem schwarm.... ist doch eigentlich recht beachtlich. nen vergleich zu nem vierkerner hätt ich noch gerne daneben gesehen....
 
@Lübke:
Nein, aber da ist nicht viel Intelligenz dahinter sondern simple Berechnungen ob man weiter geradeaus fliegt oder abdreht damit man nicht irgendwo gegen fliegt.
Sagt der doch im Video dass die zwischen 10 vordefinierten Aktionen entscheiden.

In vereinfachter Form (Männlein bewegt sich in 2D-Umgebung und soll nicht gegen die Wand laufen) macht man sowas in den ersten Stunden Informatikunterricht. Klar kann man das Intelligenz nennen, aber dann hat mein Taschenrecher unter Windows auch ne KI.
 
Zuletzt bearbeitet:
wo ist der sinn das abzuwerten? wenn du so clever bist wie du tust, solltest du wissen das der vergleich mit nem taschenrechner nicht zieht...
 
Was hat das mit abwerten zu tun ? Hier wird die Rechenleistung einer GPU bei der Berechnung von Kollisionsabfragen bzw. Vorhersagen und Vermeidung demonstiert, nicht die Stärke der "KI".

Es sind mathematische Berechnungen die nach meiner Auffassung des Begriffes keine "Intelligenz" darstellen, genau wie eine umfangreiche Berechnung im Taschenrechner.

KI fängt für mich an wenn ein Bot auf nem CS-Server mich fragt wie es meinem Hund geht weil ich ein Bild von nem Frolic-Logo an die Wand spraye. ;)
 
Zuletzt bearbeitet:
Klar ist das echte KI und übrigens passiert alles auf einem Computer auf eine Mathematische Berechnung, auf was den sonst...
 
Nene, KI fängt per Definition da an, wo bspw. ein Rechner aus mehreren Möglichkeiten eine auswählt. Selbst wenn er einfach einen Zufallsgenerator bedient, ist das sog. "Weak KI". Was du meinst ist eine menschliche, nicht-rationale "Strong KI". Sämtliche Forschung auf diesem Gebiet geht momentan allerdings in erstere Richtung. Für empfindsame Rechner fehlen noch die entsprechenden Modelle und Forscher streiten darüber, ob es mit Computern überhaupt möglich ist.

Es gibt da ein interessantes Projekt, genannt "Blue Brain". Dort wird ein Blue Gene-Computer verwendet, um ein vollständiges Gehirn zu simulieren. Bis jetzt ist es allerdings noch alles andere als intelligent. Es werden zwar sämtliche Neuronen und ihre Verbindungen simuliert, allerdings ist die Funktionsweise des Nukleus weiterhin reine Theorie und längst nicht bewiesen. Dann gibt es da noch diverse Chemische Prozesse, die Synapsen aktivieren, blockieren, anreizen, etc. etc., die allesamt nicht simuliert werden können, da noch völlig unbekannt.

Dagegen ist sich für eine von 10 Richtungen zu entscheiden Kinderkram.
 
Zuletzt bearbeitet:
Nein, sein Beispiel ist doch entweder schwache KI oder ein Script, aber keine starke KI.

"If Player sprüht Frolic, then Anquatschen und Ausgabe 'Wie geht es deinem Hund?'" wäre Script, "If Player sprüht Frolic, then chek if ..., check if, if dies und das und jenes, tue entweder Anquatschen Player#1 oder Player#23" usw. usf. möglicherweise schwache KI.
 
Zuletzt bearbeitet:
außerdem Spielen Grafikkarten ihre Leistung da aus, wo sie immer gleiche / ähnliche Rechenoperationen parallel abarbeiten können (hat halt viel mehr "Rechenwerke" als eine CPU) und imo will das Video genau das demonstrieren, wenn bei 1024 Flugzeugen die Entscheidung über eine der 10 Möglichkeiten gefällt wird.

Hat nichts mit einer tollen komplexen ausgearbeitet KI zu tun.
Hier gehts um die simple Masse, wofür die GPU nunmal super geeignet ist und
ich mein, so nen bereits angesprochener Mückenschwarm in nem Shooter der auch noch mit ner 'kleinen' KI bestückt ist, wäre doch nen nettes gimmick :P
 
Zurück
Oben