News Künstliche Intelligenz: Google entwickelt eigenen Chip für allwissende Dienste

Mahir

Schreiberling
Teammitglied
Dabei seit
Aug. 2009
Beiträge
3.460

jumpin

Lt. Commander
Dabei seit
Sep. 2013
Beiträge
1.127
Google selbst spricht bei der erbrachten Leistung von einem Vorsprung von sieben Jahren aus heutiger Sicht. Dies entspräche „drei Generationen von Moore's Law“.
Moore's Law sagt nichts über die Leistung aus, es bezieht sich nur auf die Komplexität der Schaltkreise bzw. der Anzahl Transistoren in einem Chip.
http://www.azquotes.com/picture-quotes/quote-moore-s-law-the-number-of-transistors-and-resistors-on-a-chip-doubles-every-24-months-gordon-moore-57-1-0104.jpg

Ansonsten: Interessant ...
 

Mahir

Schreiberling
Ersteller dieses Themas
Teammitglied
Dabei seit
Aug. 2009
Beiträge
3.460
Die Aussage bezieht sich nicht auf die Rechenleistung des Chips, sondern auf die Leistung des Forschungsteams.
 

shortround

Lieutenant
Dabei seit
Okt. 2006
Beiträge
676
Bin ich der einzige, der bei diesen ganzen neuen Google Technologien der diesjährigen IO Konferenz an Skynet denkt?!
 

PuscHELL76

Lt. Commander
Dabei seit
Okt. 2007
Beiträge
1.408
auch... und das ich in zukunft viel geld sparen kann weil ich solch muell nicht benutzen werde (meine sicht).
 

pray4mercy

Commander
Dabei seit
Feb. 2007
Beiträge
2.624

Krautmaster

Fleet Admiral
Dabei seit
Feb. 2007
Beiträge
21.370
für beispielsweise die Bilderkennung im Auto kann ich mir das auch vorstellen. Auch da muss vielleicht nicht alles hoch präzise sondern intelligent und effizient erfolgen, Erkennung von Mustern.
 

Rickmer

Fleet Admiral
Dabei seit
Sep. 2009
Beiträge
10.806
Moore's Law sagt nichts über die Leistung aus, es bezieht sich nur auf die Komplexität der Schaltkreise bzw. der Anzahl Transistoren in einem Chip.
Ich übersetze mir das so, das Google der Meinung ist durch Spezialisierung des Chips mit einem Zehntel der Transistoren dieselbe Leistung erbringen zu können wie auf einer traditionellen CPU von Intel etc.
 

Faust2011

1+1=10
Teammitglied
Dabei seit
Aug. 2011
Beiträge
10.361
Hmm... interessanter Artikel. Was ich nicht verstehe: Warum wird hier der Chip in der Vordergrund gestellt? Die Kernaussage des Artikel (nämlich die hohe Leistung) liegt doch in der Software (den Algorithmen) begründet und nicht in den paar ASCIs, die da zusammengestöpselt sind, oder?
 

Yoshi_87

Lt. Commander
Dabei seit
Mai 2008
Beiträge
1.286

EchoeZ

Commander
Dabei seit
März 2009
Beiträge
2.977
Die Aussage bezieht sich nicht auf die Rechenleistung des Chips, sondern auf die Leistung des Forschungsteams.
eben, das Moore's Law ist ja kein physikalisches Gesetz das in Stein gemeisselt ist.
Von einer anfänglichen Verdopplung pro Jahr ist er später auf eine Verdopplung alle 2 Jahre umgesprungen, der Herr Moore..
Weil ja die Entwicklung schneller voran ging als er dachte :lol:
Er hat mit seiner Aussage aka Gesetz insofern bekannt gemacht, daß die Forschung es als unsichtbare 'Meßlatte' hernahm.

Mir ist sein 'Gesetz' so wichtig wie der sagenumwobene Sack Reis in China, also kann man (von mir aus) das
'Verdoppeln von Irgendwas in 2 Jahren' ruhig als Moores Law bezeichnen. ;)
Ergänzung ()

Ich habe keine Angst vor Skynet... das ist harmlos. Mir läufts nur eiskalt den Rücken runter, wenn ich einen NextGen Tamagochi als US-Präsidentschaftskandidaten sehe. Gegen Pokemon, und beide mit Goggle-KI :n8::mussweg:
 

Cr4y

Commander
Dabei seit
Mai 2007
Beiträge
2.111
Hmm... interessanter Artikel. Was ich nicht verstehe: Warum wird hier der Chip in der Vordergrund gestellt?
Das interessante an diesen Chips ist wohl, dass sie immer leicht abweichende Ergebnisse liefern. Also mal ist 1+1 = 1,9 und beim nächsten mal ist das Ergebnis 2,1 oder 2. Gerade Deep Learning braucht wohl nicht 100% akkurate Ergebnisse pro simuliertem Neuron.
Naja, und Chips die so ungenau rechnen sind ja eigentlich ein Horror...
 

Brotkrumen

Cadet 4th Year
Dabei seit
Feb. 2010
Beiträge
97
Hmm... interessanter Artikel. Was ich nicht verstehe: Warum wird hier der Chip in der Vordergrund gestellt? Die Kernaussage des Artikel (nämlich die hohe Leistung) liegt doch in der Software (den Algorithmen) begründet und nicht in den paar ASCIs, die da zusammengestöpselt sind, oder?
Algorithmen die in Hardware umgesetzt werden sind schneller als in Software. Du kannst auch alles was eine Grafikkarte macht auf nem CPU "simulieren", aber dauert halt.
Ist aber vielleicht ein schlechter Vergleich. Besserer Vergleich wäre glaube ich Branch-Prediction oder Pipelining, was alles Algos sind die in Hardware laufen. Kannst du auch in Software machen, ist aber langsamer.
 

Mr_Nuts

Lt. Junior Grade
Dabei seit
Dez. 2006
Beiträge
344
Ich muss dabei auch immer an I-Robot denken... und so witzig finde ich das eigentlich nicht.
Aber egal, die werden schon wissen was sie tun... oder nicht?
 

Shampain

Cadet 2nd Year
Dabei seit
Dez. 2013
Beiträge
29
Ich frage mich immer wieder, wie wahrscheinlich wäre es das wir eines Tages von einer KI ausgelöscht werden oder zumindest in einen Krieg gezwungen werden. Skynet hin oder her.
Interessant wäre das allemal, zumal warum sollte eine KI uns auslöschen wollen? Das Risiko das es am Ende selber ausgelöscht wird, wäre doch zu hoch. Wer soll dann die Server etc. warten?
 

sultans_cross

Lieutenant
Dabei seit
Dez. 2006
Beiträge
963
Top