News Google-Brille „Project Glass“ ab Anfang 2013 für Entwickler

ja... das mit dem Accu wird interessant...
 
Oh man! Dann braucht bald jeder ne echte Sehhilfe, weil aller 24/7 mit dem Ding rumrennen und die eigenen Glubscher dann mit der Zeit bloß noch bis max. 30cm vor dem eigenen Kopf Bilder scharf erfassen können. Coole Sache - zumindest für Filemann und Co. :D

Aber davon mal ganz abgesehen: Wenn es wirklich annähernd so perfekt wie im Video funktionieren wird, möchte ich es gerne testen :)
 
Für den Urlaub oder Tagesausflüge, Geburtstage, Weihnachten bestimmt top :)
Edit: Also alleine die Cam+Telefonie
 
bin aufjedenfall interessiert.
Wenn das so wird wie ich mir das vorstelle dann auch gerne 2000€ dafür, aber dann auch als Brillenersatz incl. Sehstärke und entsprechender passform ...

demnächst gibts dann neben jedem Mobilfunkladen einen optiker :D
 
Die Brille von Google soll nach jetzigem Wissensstand Informationen in das Sichtfeld der Brille einblenden und kann nach Angabe des Unternehmens auch mit normalen Brillen kombiniert werden.
Die Welt von GitS rückt immer näher, YES! :daumen:
 
Erinnert mich dan Dragonball :D
Ich kann es mir nicht vorstellen wie das funktionieren soll. Weil die ja so dicht an den Augen dran ist, dann wird doch alles verschwommen. Oder haben die da einen Trick für? Ansich eine geile Sache, wird immer alles Komfortabler.
 
Mal ne ganz blöde frage: Wie kriegt man das zeug auf der Brille denn scharf gestellt? Wenn ich mir n buch 5 cm vors Auge halte kann ich da nix lesen, bzw nichts scharfstellen.
Was macht die Brille da anders?
 
Wenn die Brille wirklich so funktioniert wie in dem Video wäre es genau das was ich brauche. Ich frag mich nur wo die Daten gespeichert werden, hoffe doch in der Brille und nicht in der Cloud.
 
Na nun bleibt mal realistisch -> das wir nie und nimmer vor 2025 kommen.

Derzeit gibt es keine technik, die in einer Brille CPU + Speicher + Akku unterbringen könnte.

Also - schöner Science-Fiction-Film - mehr nicht
 
Karamanga schrieb:
... Derzeit gibt es keine technik, die in einer Brille CPU + Speicher + Akku unterbringen könnte....

Wieso CPU + Speicher + Akku? Eigentlich doch nur nen Akku. Datenübertragung und Berechnung kannst per Bluetooth auf deinem angebundenen Android-Smartphone laufenlassen? Zumindest ging ich bisher davon aus das es eher auf diesem Wege realisiert werden würde.
 
@DerBecks
du brauchst trozdem eine einheit die in der brille die daten verwaltet, ob du es jetzt cpu oder microcontroler nennst ist ja egal...
speicher wirst du auch brauchen und mit speicher mein ich ram...


@topic
so wie auf dem video ist wunsch denken, sowas kann die briller atm nicht und wird sie wahrscheinlich auch erst in x jahren können wenn überhaupt...

wer bisschen darüber nachdenkt wie das menschliche auge funktioniert wird sich vorstellen können wo das problem liegt... oder besser gesagt wo die grenze liegt...
 
coming 2013 to a country near you that's not germany^^
bin höchstgespannt ob und wie das mit unseren gesetzen vereinbart wird
 
vandread schrieb:
@DerBecks
so wie auf dem video ist wunsch denken, sowas kann die briller atm nicht und wird sie wahrscheinlich auch erst in x jahren können wenn überhaupt...

wer bisschen darüber nachdenkt wie das menschliche auge funktioniert wird sich vorstellen können wo das problem liegt... oder besser gesagt wo die grenze liegt...

Würde ich voll und ganz unterschreiben.

Ich halte diese Brille ja immer noch für einen großangelegten langjährigen Aprilscherz von Google. Zu viele physikalische Gesetze sprechen dann doch ein bißchen gegen diese tolle Technik. Aber vielleicht sind die Physiker bei Google ja schon ein paar Schritte weiter... :D:freaky::D
 
@ DerBecks & vandread
Ich könnte es mir eher so vorstellen, das letztendlich nur Kabel in oder an der Brille verlaufen, die dann hinter dem Ohr wie ein Kopfhöhrer in die Tasche führen, wo letztendlich ein Gerät wartet um die Daten zu verarbeiten. Ist für mich jetzt die am einfachsten gedachte und realistischste Ausführung.
 
Hellbend schrieb:
Ich seh schon die, an Pollern, Wänden und Bäume, gestrandeten Autofahrer. Von den überfahrenen Fußgängern ganz zu schweigen.

Du hast mit dem Teil weiterhin freie Sicht nach vorn. Das HUD-Display befindet sich etwas über dem Auge. Man muss also aktiv dorthin sehen. Es springen einem nicht die Notifications aus heiterem Himmel vor die Augen.

Finde das Projekt gut. Wie man auf den aktuellen Videos von der Keynote sehen kann, ist alles, was es in diesem Webefilmchen zu sehen gibt, noch nicht verfügbar. Es ist wirklich ein reines Entwicklergerät.

Die Spracherkennung in Android müsste erstmal massiv weiterentwickelt werden, bevor es so wie in dem verlinkten Video funktionieren kann. Noch hat diese nichtmal Siri-Niveau. Und auch Apple ist noch weit von einer perfekten Spracherkennung entfernt.
 
Zuletzt bearbeitet:
@0/8/15
über die technik mach ich mir am wenigsten sorgen, eine recheneinheit mit einem strom versorgung usw wird man sicher in eine brille packen können, vielleicht würde sie heute klobig und doof aussehen in paar jahren dan vielleicht nicht mehr, darüber lässt sich reden...

was ich sagen möchte ist, bevor man sich sorgen macht wie das ding laufen soll, sollte man sich mal gedanken machen wie überhaupt diese bilder entstehen sollen die unser auge dann wahrnehmen soll...

problem nummer 1, das menschliche auge (ich gehe von einem top gesunden auge aus) kann maximal sachen scharfstellen die eine entfernung von ca. 5-6 cm haben alles was näher ist, ist einefach nurnoch verschwommen und wenn man sich anstrengt und versucht es scharf zu stellen bekommt man kopfschmerzen... ist also nicht gesund... (deswegen soll man ja auch nicht so nah vor dem pc sitzen... :p)

problem nummer 2, sollten wir bilder so nah wirklich sehen können dan hat man das problem wenn ich mir diese betrachte dann ist alles andere unscharf... dh ich schau auf das kp... wetter icon und sehe nicht anderes mehr...

das einzige was machbar wäre, wenn die brille ihre sachen als projiziert...
dh da wo ich hinschaue sind die icons, zb auf der wand...
dann müsste aber die brille (vll mit einem laser) den abstand immer messen und alles automatisch scharfstellen je nach abstand...
aber das wiederum ist totaler blödsin weil das nicht eben ist und ich immer eine wand oder objekt brauche...

ihr seht so einfach ist das ganze nicht...

@speedlimiter
schaut man aber auf das display dann ist alles andere nicht mehr zu erkennen...
 
Zuletzt bearbeitet:
Wird nicht kommen bzw. verboten. Man muss sich nur mal vorstellen, jeder hätte einen laufenden camcorder dabei. Jeder filmt jeden. Das würde jegliche soziale Interaktion unmöglichmachen, in der Öffentlichkeit ständig Ärger machen, in Läden, Kinos usw. sowieso verboten sein und in der Familie böse ins Auge gehen.

Selbst auf Geburtstagen ist sowas nicht gern gesehen. Ist eine der asozialsten Erfindungen seit dem Tamagochi.
 
dahum schrieb:
Wird nicht kommen bzw. verboten. Man muss sich nur mal vorstellen, jeder hätte einen laufenden camcorder dabei. Jeder filmt jeden. Das würde jegliche soziale Interaktion unmöglichmachen, in der Öffentlichkeit ständig Ärger machen, in Läden, Kinos usw. sowieso verboten sein und in der Familie böse ins Auge gehen.

Wenn Google nicht ganz dumm, aber sehr wagemutig (Im Sinne von erneuten Konfrontationen mit Datenschutzbehörden) ist, werden Aufnahmen der Project Glass Kameras zukünftig (Mit Betonung auf Zukunft) StreetView aktualisieren^^
 
am meisten würde ich vom feature Gebrauch machen, das Ding abzusetzen. Zur Zeit SIEHT man wenigstens noch, wie gestört die Menschen geworden sind, wie sie die Straße hoch- u. runterlaufen und KEIN EINZIGES MAL den Blick vom Smartphone lassen. Ich wäre ja mal für eine staatlich erzwungene Entziehungskur, indem man das Funknetz mal für ein halbes Jahr abschalten würde. Würden wahrscheinlich immer noch mit den Dingern rumlaufen und draufglotzen und den Leuten laut in den Nacken quatschen..:freak:

Merke: Wenn alle zu freaks geworden sind, wird der, der keiner ist, zu einem.:freaky:
 
Zuletzt bearbeitet:
Zurück
Oben