News Pohoiki Beach & Springs: Intel Loihi mit bis zu 100 Mio. Neuronen pro System

Verglichen wird "mit Intel CPUs". Und dabei kommen erstaunliche Ergebnisse zu Tage. Ja, wer hätte das gedacht? ;) Besser Intel hätte sich mit einer Nividia RTX 2080ti verglichen, den Consumer Chips von der Stange.
 
  • Gefällt mir
Reaktionen: Flaimbot
die sollen gummi geben!
hab (hoffentllich) noch knapp 40 jahre zeit, dann muss das ding aber soweit sein um mein hirn zu simulieren.
bei mir reichen dann auch ein paar weniger neuronen =D
 
  • Gefällt mir
Reaktionen: Krautmaster, jk1895, TheMoe87 und 4 andere
407SW schrieb:
but can it run Crysis? LOL

Die Frage ist nicht, ob Crysis darauf läuft, sondern ob das System Crysis für würdig erachtet, auf ihm laufen zu dürfen!
 
  • Gefällt mir
Reaktionen: ColonelP4nic, TheMoe87, Rockstar85 und eine weitere Person
cookie_dent schrieb:
Hmmmm,



Hört sich so an als wenn man etwas gebaut hat für das man noch eine Anwendung sucht.
das hab ich mir auch gedacht.

insgesamt ein ziemliches bullshit-bingo..."skalieren", "neuronal". fast schon auffällig, dass sie KI nicht erwähnt haben. sind whh. 4096 atom-cores, yay
 
Intel entwickelt und baut was wofür sie noch Anwendungsgebiete suchen...:rolleyes: frei nach dem Motto ich werfe ein Produkt ohne Anwendungsszenario auf den Markt - jemand wir mir dann schon sagen können für was ich es eigentlich nutzen und empfehlen könnte...
 
Off topic:

Wenn ich irgendwo moderne Traktoren oder Mähdrescher sehe denke ich immer an meinen Opa. Wie geil wäre es wen er die Monster sehen könnte die heute an einem Vormittag seine Arbeit eines Jahres wegsnacken.
an Opa erinner


so_oder_so schrieb:
Ich hab grob verstanden worum es geht und wie - keine Frage.

Aber bei 1-2 Folien kam ich mir vor, als hätte man mich als dümmsten Menschen der Erde gerade mit altem Brot ausm Wald gelockt und mir das erste Mal einen Ottomotor gezeigt. :D
 
  • Gefällt mir
Reaktionen: new Account() und Daniel D.
Es tut mir leid, aber nach den ersten sieben Worten musste ich schon lachen :)
 
Waelder schrieb:
Intel entwickelt und baut was wofür sie noch Anwendungsgebiete suchen...:rolleyes: frei nach dem Motto ich werfe ein Produkt ohne Anwendungsszenario auf den Markt - jemand wir mir dann schon sagen können für was ich es eigentlich nutzen und empfehlen könnte...
Ohne Anwendungsszenario? Du lebst auch in einer Höhle fern ab jeder Zivilisation oder?
Das es konkret noch umgesetzt werden muss ist doch klar. Es ist ein klassisches Henne-Ei Problem. Worauf sollten das denn bisher entwickelt werden.
Die ganzen Beschleuniger für neuronale Netzte gibt's ja noch nicht lange.
 
  • Gefällt mir
Reaktionen: icetom, WeltalsWille und Rockstar85
Ich blockier und ignoriere fortan jeden User der auf die dumme Idee kommt "But, can it run crysis?" zu Posten.
Rigoros.

Der "Witz" ist nun schon 12 Jahre alt.
weiss nich wie man das feiern kann...
Selbst auf einem 2200G undervoltet und untertaktet läuft das Game mit 4GB 2133-DDR4 RAM!
 
Cyberdyne Systems lässt grüßen. Oder werden wir doch alle Batterien? Egal.
 
-Ps-Y-cO- schrieb:
Ich blockier und ignoriere fortan jeden User der auf die dumme Idee kommt "But, can it run crysis?" zu Posten.
Rigoros.

Man kann's auch übertreiben
 
  • Gefällt mir
Reaktionen: Tranceport und -Ps-Y-cO-
Bairok schrieb:
Es tut mir leid, aber nach den ersten sieben Worten musste ich schon lachen :)
Wieso? Denkst du etwa, dass 14nm ja so "veraltet" sind, oder wirfst alles in einen Topf? Nur weil man CPUs in 7 oder 10nm bauen kann, kann man deswegen nicht alles in diesen Größen bauen. AMDs hat ebenso seine Gründe dafür, den X570-Chipsatz in 14nm zubauen. Unterschiede in Anforderungen ergeben Unterschiede in Lösungen. Egal ob es nun CPUs, Chipsätze oder neuromorphische Kerne sind.
Dies ist der fünfte neuromorphische Chip von Intel, der vierte war bereits eine 10nm Waferstudie.
 
psYcho-edgE schrieb:
Auch in 28, 45 oder 90 Nanometer, aber macht's das besser...?

es wird auf jeden fall nicht signifikant schlechter. nur die größe und der stromverbrauch steigen stark an.

dafür kann man mit mehr fläche besser kühlen. wenn die kosten egal sind, ist 14nm für high end aktuell immer noch das maß der dinge....frag mal bei intel, die den takt nicht hoch bekommen oder bei nvidia die ihre transistoren monster momentan nicht preiswert in 7nm fertigen können. :evillol:

auch wenn es jetzt hart klingt...ich sagte schon mehrmals, es kann sein, dass die aktuelle hardware generation die letzte ihrer art wird.

die zen sind unfassbar schöne teile, leider sind sie immer noch im design von anno tobak (60er und 70er jahre). damit kommt man locker bis 2025, evtl. bis 2030.

dann müssen aber fpga´s und neuronen ran. sonst schafft man nicht dort hin zu kommen, wo man hin will.

fest verdrahtete cpu´s mit registern, die nicht "lernen" können, sind sowas von letztes jahrtausend. :bussi:

mfg
 
  • Gefällt mir
Reaktionen: [wege]mini
Forum-Fraggle schrieb:
sind immer noch Faktor 1000

egal, was kostet die welt...ich nehm 1000 davon....in großrechnern sind 1000 cpu´s nun wirklich keine leistung mehr.

fraglich ist, ob wir solche monster sinnvoll "beschäftigen" könnten. wir können nicht mal unser gehirn sinnvoll auslasten (die meisten sind bei unter 30%) und da ist sehen, laufen, riechen usw. schon mit dabei.

für das "denken" wird deutlich weniger verwendet, als dass was die meisten menschen glauben. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: krsp13, Rockstar85, Ernie75 und eine weitere Person
bensen schrieb:
Ohne Anwendungsszenario? Du lebst auch in einer Höhle fern ab jeder Zivilisation oder?
Das es konkret noch umgesetzt werden muss ist doch klar. Es ist ein klassisches Henne-Ei Problem. Worauf sollten das denn bisher entwickelt werden.
Die ganzen Beschleuniger für neuronale Netzte gibt's ja noch nicht lange.
auf der einen Seite gibts noch lange nicht - also frei übersetzt, noch kein Bedarf, auf der anderen Seite, sagst du von Nöten um den Anfang zu setzen bzw. Henne-Ei Problem zu lösen... bleibt trotzdem ein gewagtes Spiel
Intel gehts darum ggf. Partner zu finden und am Besten gleich zu binden...
 
Zurück
Oben