News Künstliche Intelligenz: Google entwickelt eigenen Chip für allwissende Dienste

Mahir

Schreiberling
Teammitglied
Registriert
Aug. 2009
Beiträge
3.636
Die Aussage bezieht sich nicht auf die Rechenleistung des Chips, sondern auf die Leistung des Forschungsteams.
 
Bin ich der einzige, der bei diesen ganzen neuen Google Technologien der diesjährigen IO Konferenz an Skynet denkt?!
 
auch... und das ich in zukunft viel geld sparen kann weil ich solch muell nicht benutzen werde (meine sicht).
 
phoboss schrieb:
Bin ich der einzige, der bei diesen ganzen neuen Google Technologien der diesjährigen IO Konferenz an Skynet denkt?!

Denke da eher an I Robot ;)
 
für beispielsweise die Bilderkennung im Auto kann ich mir das auch vorstellen. Auch da muss vielleicht nicht alles hoch präzise sondern intelligent und effizient erfolgen, Erkennung von Mustern.
 
jumpin schrieb:
Moore's Law sagt nichts über die Leistung aus, es bezieht sich nur auf die Komplexität der Schaltkreise bzw. der Anzahl Transistoren in einem Chip.

Ich übersetze mir das so, das Google der Meinung ist durch Spezialisierung des Chips mit einem Zehntel der Transistoren dieselbe Leistung erbringen zu können wie auf einer traditionellen CPU von Intel etc.
 
Hmm... interessanter Artikel. Was ich nicht verstehe: Warum wird hier der Chip in der Vordergrund gestellt? Die Kernaussage des Artikel (nämlich die hohe Leistung) liegt doch in der Software (den Algorithmen) begründet und nicht in den paar ASCIs, die da zusammengestöpselt sind, oder?
 
phoboss schrieb:
Bin ich der einzige, der bei diesen ganzen neuen Google Technologien der diesjährigen IO Konferenz an Skynet denkt?!

Keine Angst, bis zur Singularität sind es noch circa 30 Jahre. ;)

Ich verfolge diese ganze Entwicklung auf jeden Fall mit Spannung.
 
Mahirr schrieb:
Die Aussage bezieht sich nicht auf die Rechenleistung des Chips, sondern auf die Leistung des Forschungsteams.
eben, das Moore's Law ist ja kein physikalisches Gesetz das in Stein gemeisselt ist.
Von einer anfänglichen Verdopplung pro Jahr ist er später auf eine Verdopplung alle 2 Jahre umgesprungen, der Herr Moore..
Weil ja die Entwicklung schneller voran ging als er dachte :lol:
Er hat mit seiner Aussage aka Gesetz insofern bekannt gemacht, daß die Forschung es als unsichtbare 'Meßlatte' hernahm.

Mir ist sein 'Gesetz' so wichtig wie der sagenumwobene Sack Reis in China, also kann man (von mir aus) das
'Verdoppeln von Irgendwas in 2 Jahren' ruhig als Moores Law bezeichnen. ;)
Ergänzung ()

phoboss schrieb:
Gut.
Weil langsam bekomm ich Angst :D

Ich habe keine Angst vor Skynet... das ist harmlos. Mir läufts nur eiskalt den Rücken runter, wenn ich einen NextGen Tamagochi als US-Präsidentschaftskandidaten sehe. Gegen Pokemon, und beide mit Goggle-KI :n8::mussweg:
 
Faust2011 schrieb:
Hmm... interessanter Artikel. Was ich nicht verstehe: Warum wird hier der Chip in der Vordergrund gestellt?
Das interessante an diesen Chips ist wohl, dass sie immer leicht abweichende Ergebnisse liefern. Also mal ist 1+1 = 1,9 und beim nächsten mal ist das Ergebnis 2,1 oder 2. Gerade Deep Learning braucht wohl nicht 100% akkurate Ergebnisse pro simuliertem Neuron.
Naja, und Chips die so ungenau rechnen sind ja eigentlich ein Horror...
 
Faust2011 schrieb:
Hmm... interessanter Artikel. Was ich nicht verstehe: Warum wird hier der Chip in der Vordergrund gestellt? Die Kernaussage des Artikel (nämlich die hohe Leistung) liegt doch in der Software (den Algorithmen) begründet und nicht in den paar ASCIs, die da zusammengestöpselt sind, oder?

Algorithmen die in Hardware umgesetzt werden sind schneller als in Software. Du kannst auch alles was eine Grafikkarte macht auf nem CPU "simulieren", aber dauert halt.
Ist aber vielleicht ein schlechter Vergleich. Besserer Vergleich wäre glaube ich Branch-Prediction oder Pipelining, was alles Algos sind die in Hardware laufen. Kannst du auch in Software machen, ist aber langsamer.
 
Ich muss dabei auch immer an I-Robot denken... und so witzig finde ich das eigentlich nicht.
Aber egal, die werden schon wissen was sie tun... oder nicht?
 
Ich frage mich immer wieder, wie wahrscheinlich wäre es das wir eines Tages von einer KI ausgelöscht werden oder zumindest in einen Krieg gezwungen werden. Skynet hin oder her.
Interessant wäre das allemal, zumal warum sollte eine KI uns auslöschen wollen? Das Risiko das es am Ende selber ausgelöscht wird, wäre doch zu hoch. Wer soll dann die Server etc. warten?
 
Shampain schrieb:
Wer soll dann die Server etc. warten?

Eine Maschine? ;)

Die Zeit wird zeigen ob es in Sachen KI so gut laufen wird,
dass der Mensch sich vllt. doch nicht selbst vernichtet, sondern seine Schöpfung. :freak:
 
Zurück
Oben