News Video: CUDA berechnet KI von 1.024 Flugzeugen

@riDDi:
Lübke schrieb:
wow endlich ein erstes lebenszeichen einer echten k.i.
Mit der Definition dass jede noch so simple Entscheidung eine KI darstellt, muss ich dann trotzdem feststellen, dass die Aussage falsch ist, denn dann gabs vermutlich vor 60 Jahren schon die ersten Lebenszeichen echter KI.

@MountWalker:
das Impliziert, dass genau der Fall vorgesehen ist. Ich rede davon, dass die KI aus dem Logo (welches ihr in Binärform vorher unbekannt war) ein Produkt ableitet, daraus schließt, dass ich ein Logo für Hundefutter an die Wand sprühe, daraus schließt, dass ich ggf. einen Hund habe und das zu einer logischen Konversation führt.
Das wäre imo schon ein Schritt weiter als simples Scripting.
 
Zuletzt bearbeitet:
P.S.
Die Abtrennung von IOntelligenz und Script ist meiner Meinung kaum möglich, weil meiner Meinung Instinkte von biologischen Lebewesen auch nur Scripte sind, die dadurch anders scheinen, als einfachste Scripte, dass sie miteinander konkurrieren und der Mechanismus, wann welches Sccript die Macht über das Handeln "gewinnt" so viele Inputs verarbeitet werden - incl. chem. Innputs - dass das ganze chaotisch wird. Aktuelle Hirnforschung deutet ja darauf hin, dass das bei menschlichem Bewusstsein gar nicht so grundsätzlich anders ist - nur sind die Scripte hier sehr viel komplexer.
 
MountWalker schrieb:
Nein, sein Beispiel ist doch entweder schwache KI oder ein Script, aber keine starke KI.
Wie gesagt, starke KI gibt es bis zum heutigen Tag nur in der Theorie und auch da nur als entfernte Möglichkeit.
Der Witz an Intelligenz ist, dass man sie nicht definieren kann, ohne Begriffe wie "Wissen", "Wahrnehmung" und "Intelligenz" selbst zu verwenden. Höchst philosophisch und Ansichtssache.

Angelus_88 schrieb:
Ich würde sagen einen Mückenschwarm simuliert man doch besser als einfache Partikeleffekte.

Blutschlumpf schrieb:
denn dann gabs vermutlich vor 60 Jahren schon die ersten Lebenszeichen echter KI.
Genauer gesagt 1956 ;) Auf der Dartmouth-Konferenz wurde der Begriff Künstliche Intelligenz definiert.
 
Zuletzt bearbeitet:
Interessantes Video, aber so recht vom Hocker hauts mich jetzt auch nicht ^^

Btw, ich genieße jeden Tag, an dem es noch keine echte KI gibt ;)
 
Für jedes einzelne Objekt gibt es eine Funktion die in etwa so aussieht:

x = Funktion von (Momentaner Position, Position in Kürze(abhängig von schneller, langsamer, rauf, runter, links, rechts, drehen,...))
y
z
x1
y1
z1
xn
yn
zn

Wobei die linke Seite ein Vektor und die rechte Seite der Gleichung eine Matrix ist. Die Unbekannten dieser Matrix ergeben sich aus 1023 anderen Gleichungen.;) Das ganze wird simultan 1024 mal berechnet.
Und jetzt sagt bitte noch einer das sei nicht beeindruckend. ;)

Heutzutage müh ich mich noch mit Matrizen in Matlab ab.....Zeit wirds, dass CUDA kommt.:D
 
Zuletzt bearbeitet:
... oder du errechnest den Richtungsvektor für jeden Agenten und bestimmst dann der Reihe nach den größten Zwischenraum und die entsprechende Richtung. Lass das pro Agent 1 Million ops sein. Macht für alle zusammen 1 Gops ;)
Es sagt auch keiner, dass jedes Flugzeug in jedem Frame eine Korrektur benötigt oder dass Entscheidungen überhaupt in jedem Frame getroffen werden. Hier kann viel abgekürzt werden.
 
Zuletzt bearbeitet:
Natürlich wird hier viel abgekürzt. Schwachbesetzte Matrix (evt. durch Pivotierung), Lösungsverfahren mit durchschnittlicher Genauigkeit,...hier gibt es viele Möglichkeiten den rechenaufwand niedrig zu halten.

Mein Beispiel sollte nur zeigen, was da dahintersteckt. Dann kommen auch nicht so Vorschläge wie "Insektenschwarm in Shooter".;)
 
Na toll, das Problem bei dieser ganzen GPU-Physik Geschichte ist nur, dass die GPU kaum ausreicht um die Grafik vernünftig darzustellen und sich die CPU langweilt.
 
Auf jeden Fall würde es die CPU bei bestimmten Aufgaben wie Kollisionsabfragen und der KI-berechnung gehörig entlasten, was neue möglichkeiten bei der Programierung der Gegner KI freimachen würde...
 
Aber wozu die CPU entlasten, aktuell wird die CPU eh meist nicht ausgelastet, die GPU idR. schon eher.
 
Und obendrein ist CUDA nicht mal im entferntesten für Spiele gedacht.;)

Auf jeden Fall würde es die CPU bei bestimmten Aufgaben wie Kollisionsabfragen und der KI-berechnung gehörig entlasten
Was ist "es"? Falls du damit CUDA meinst, liegst du falsch.
Falls du damit PhysX meinst, so liegst du auch falsch, weil das hier gezeigte nichts damit zu tun hat.

CUDA ist lediglich eine Schnittstelle (man kann auch Tool oder Werkzeug dazusagen) mit dessen Hilfe man auf die brachiale Rechenleistung von Grafikkarten zu greifen kann.
 
Sherman123 schrieb:
Und obendrein ist CUDA nicht mal im entferntesten für Spiele gedacht.
Ob du es dann CUDA nennst oder PhysiX oder DirectX 11 oder wie auch immer ist doch irrelevant, hier wird anhand eines Teils eines Spiels demonstriert wozu man die GPU nutzen kann, also halte ich es durchaus für relevant über die Verwendung in Spielen zu diskutieren. Imo jedenfalls relevanter als über die Art der Schnittstelle und deren Intention zu streiten.
 
Ob du es dann CUDA nennst oder PhysiX oder DirectX 11 oder wie auch immer ist doch irrelevant
Ich sag zu meinem Auto auch nicht Fahrrad oder Flugzeug weils wurscht ist. Die 3 Dinge haben nunmal einfach nichts miteinander zu tun.:rolleyes:
 
Man spricht die GPU an um die für irgendwelche Berechnungen zu nutzen, über welche Software oder API das passiert ist hier doch völlig unwichtig.

Du brauchst dein Fahrrad ja nicht Auto nennen, aber da hier der der Weg nicht das Ziel ist, interessiert es keinen ob du mit dem Auto oder dem Fahrrad gefahren bist ;)
Warum sollen die nicht CUDA nutzen um im Spiel die GPU anzusprechen ? Offenbar machen Sie es ja.
 
Arhey schrieb:
@Darzerrot
PhysX wird auch über CUDA realisiert.
Es reicht eine GTX275 und eine 8800GT für alles.

Es reicht auch nur eine GTX 275 aus. Die zusätzliche 8800 GT macht den Braten nicht fett, den gleichen Effekt hat man auch, wenn man die GTX 275 übertaktet.
 
Jup, AIT muss jetzt aufhören in der Nase zu bohren und auch etwas mehr Gas in Sachen Marketing geben und nicht das alte 10.1 "Feature" pushen. 10.1 ist faktisch Tod. Erst DX11 wird´s wohl wieder richten.
 
@Medic-on-Duty
Das könnte man dann auch zu CUDA sagen O.o
OpenCL und DX11 werden es ersetzen. (da beide auf allen Karten laufen)

Also red hier keinen Quatsch und vergleich nicht Äpfel mit Birnen.
 
Also ich finde es gut das CUDA nun vermehrt verwendet wird, sei es nun eine solche Demo, Video-Encoding oder DC-Projekte wie Folding@Home, SETI und GPUGRID. Hoffe das in diesem Bereich mal mehr passiert und entsprechende Anwendungen kommen.
 
Zurück
Oben