News Gemini-Präsentation: Googles Werbevideo der neuen KI-Fähigkeiten war geschönt

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.742
  • Gefällt mir
Reaktionen: N3utr4l1s4t0r und autopilot
Ich warte darauf, dass man sowas auch gescheit selbst hosten kann.
 
  • Gefällt mir
Reaktionen: HoschY1987
Finde ich nicht schlimm... Es ist am Ende halt Marketing und da wird eben gerne "gelogen" um Zeug ins positive zu rücken.

@DerNiemand

Das Hosten geht schon recht gut mit einer guten GPU. Das Modell zu trainieren auf der anderen Seite eher nicht.
 
  • Gefällt mir
Reaktionen: $$coffee, Daddi89 und autopilot
Ein Werbevideo in dem nicht die Wahrheit gesagt wurde?

1702299357936.gif
 
  • Gefällt mir
Reaktionen: Lixaya, thepate94227, Fritzler und 18 andere
Das Problem ist nicht das Werbevideo, sondern das CB mal wieder den Werbemist als Tatsache hinstellt.
 
  • Gefällt mir
Reaktionen: IllusionOn, xXBobbyXx, gartenriese und 2 andere
Das hätte man wirklich klarer machen sollen in dem Video, da entsteht ein falscher Eindruck wie genau die Interaktion abläuft.

Davon abgesehen sehe ich alles was auf einem Level mit GPT4 ist erstmal als klaren Erfolg, wir sehen hier ein Wettrüsten das eben erst begonnen hat und das sich noch lange ziehen wird. Offen bleibt wann und wie OpenAI dann wieder nachlegt.
 
Gähn.

Noch irgendein AI-Gedöhns womit man im Alltag irgendwie nix sinnvolles mit anfangen kann.
Und vermutlich auch etwas, was Google in ein paar Jahren wieder einstellt. Weiß man bei Google ja nie.
Kann man nicht mal was funktionierendes, was man auch im Alltag brauchen kann entwickeln? (Apple, maybe?)
 
  • Gefällt mir
Reaktionen: gartenriese und -=[CrysiS]=-
DeepMind gehört zu den Branchengrößen und ist seit Jahren führend im Bereich der KI Forschung (nicht nur im LLM Bereich). Da wird nichts eingestellt.
Im Vergleich dazu ist OpenAI ein kleines Lichtchen.
 
  • Gefällt mir
Reaktionen: Andy
Drummermatze schrieb:
Irgendein AI-Gedöhns womit man im Alltag irgendwie nix sinnvolles mit anfangen kann.

Nicht im Alltag brauchen kann? Ich nutz die Systeme jeden Tag zum arbeiten und lernen. Mein Job als Developer wird jetzt zu gefühlt 30% schon von der Maschine übernommen.
 
  • Gefällt mir
Reaktionen: nyster, 4nanai und rosenholz
Ja, leider ist das so. Die Devs werden zwar nicht direkt durch ne AI ersetzt, aber wenn ein Team weniger Leute für die gleiche Produktivität braucht, dann werden pro Team langfristig auch weniger Devs gebraucht.

Das was wir jetzt haben ist noch der Anfang, im Anlauf sind gerade vor allem Agenten-Systeme die automatisiert Aufgaben erledigen können. Du hast als Dev dann später in der Theorie 10, 20 oder mehr "Junior Devs" um dich sitzen die du überwachst, neue Aufgaben gibst und ggf. anleitest. Damit haben auch kleine Teams auf einmal einen sehr viel höheren Output.

Ob das am Ende heißt wir brauchen weniger Devs weiß ich nicht. Vielleicht steigert sich auch einfach nur die Produktion, man kann mehr Projekte weltweit gleichzeitig staffen etc.
 
Zwei Sachen, die mich interessieren würden:

1) Welche context length hat das? (Also wie viele Token / Wörter kann es gleichzeitig im Speicher halten?)
2) Wie gut kann es einen kleinen Fakt mittendrin auch tatsächlich abrufen?

Weil grade bei 2) ist GPT-4 richtig gut und die Konkurrenz wie z.B. Claude 2.1 weit hinterher trotz (oder vielleicht auch wegen) größerer context length.

Quelle:

Claude 2.1:
1702314423434.png

GPT-4:
1702314471218.png

Das ist ein verdammt großer Unterschied in Performance, über den seltenst gesprochen wird.
Da würde mich brennend interessieren, was Gemini so drauf hat.
 
  • Gefällt mir
Reaktionen: Daddi89
Daddi89 schrieb:
Nicht im Alltag brauchen kann? Ich nutz die Systeme jeden Tag zum arbeiten und lernen. Mein Job als Developer wird jetzt zu gefühlt 30% schon von der Maschine übernommen.
Das ist super! Ich meinte aber eher Aufgaben die sich für Ottonormalnutzer in den Alltag integrieren.
Nichts spezielles. Dafür gibt es wie dein Beispiel zeigt sehr wohl sehr gute Anwendungsfälle.
 
  • Gefällt mir
Reaktionen: Daddi89
Land_Kind schrieb:
Dann braucht es Dich oder einen Deiner Kollegen bald nicht mehr?
Glaub ich nicht, wenn man sich mal den Backlog der meisten Firmen anguckt. Und dazu ist man als Entwickler irgendwie ja auch noch Psychologe, Sozialarbeiter usw., jedenfalls bei Software, die nicht direkt vom Endkunden verwendet wird.
 
  • Gefällt mir
Reaktionen: Land_Kind
Daddi89 schrieb:
Ob das am Ende heißt wir brauchen weniger Devs weiß ich nicht. Vielleicht steigert sich auch einfach nur die Produktion, man kann mehr Projekte weltweit gleichzeitig staffen etc.

Davon kannst du ausgehen. Maschinen alleine verringern nicht die Arbeitszeit des individuellen Arbeiters, sondern führen vorrangig zu einer höheren Gesamtproduktion (es sei denn, die Arbeiter nutzen die Gunst der Stunde und verhandeln eine kürzere Arbeitswoche bei gleicher Produktivität). Die KI-Systeme erhöhen, wenn sie denn gescheit funktionieren und nicht zu neuen Problemen und Pflegefällen führen, die Produktivität des Arbeiters. Sie verringern also die Zeit, welcher der Arbeiter nötig hat, für seine eigene Existenz und die Kostendeckung des Produktionsprozesses zu arbeiten. Dadurch erhöht sich bei gleichbleibender Arbeitszeit der Mehrwert, den der Kapitalist (dein Arbeitgeber) vom Arbeiter abschöpft. Aus dem gesteigerteren Mehrwert folgt eine höhere Profitrate (bei gleichen externen Umständen). Dieser wird zyklisch reinvestiert, was bedeutet, dass mehr Produktionsmittel (Arbeiter, PCs, Software) gekauft werden, die Produktion steigt, gleichzeitig steigen aber auch die Fixkosten des K. (Konstantes Kapital) und variablen Kosten (Gehalt), der Mehrwert sinkt, Profitrate sinkt… dies nennt Marx die generelle Tendenz der fallenden Profitrate.

Soweit mein Verständnis der Marx’schen Arbeitstheorie im digitalisierten Kapitalismus :D
 
Zurück
Oben