News OpenAI: Verluste steigen durch ChatGPT-Entwicklung auf 540 Mio. Dollar

Das Memo von Google hab ich schon am WE gelesen und es ist echt spannend was sich da gerade alles tut. Ich denke mal in nächster Zeit wird es sehr viele verschiedene Projekte geben und dann konsolidiert sich das wieder. Aber die Alternativen zu OpenAI, Google und Co sind schon spitze. Die Entwicklung geht jetzt ganz schön rasant vonstatten.
 
  • Gefällt mir
Reaktionen: flo.murr, Zockmock, lemba und 13 andere
Falc410 schrieb:
Aber die Alternativen zu OpenAI, Google und Co sind schon spitze.
Vor allem, dass man lokal seinen eigenen Assistenten laufen lassen kann nach ca. einem Abend an Training. Das hat schon was...
 
  • Gefällt mir
Reaktionen: Zockmock, lemba, aid0nex und 9 andere
Sieht man besonders gut auch bei Stable Diffusion.
Es gibt 1.5-2gb grosse Modelle.
Und dann gibt es die 150-244mb Loras und Lycoris die einen ähnlichen Korrektur Effekt erziehlen können bei wesentlich weniger Aufwand!

Sehr schön zu sehen wenn man hier mal bissel durch browst.
https://civitai.com/
 
  • Gefällt mir
Reaktionen: flo.murr, lemba, Kag3maru und 2 andere
Bleibt zu hoffen, dass der Google Mitarbeiter Recht behält. Ich träume ja schon etwas von einem Sprachassistenten wie z.B. Alexa in meiner Wohnung, nur dass alles lokal läuft und ich keinen Tech-Konzern mit Daten füttere. Wenn es dafür halbwegs fertige Implementierungen gibt klatsche ich einfach eine Quadro-Karte in meinen Homeserver (dann tut der auch mal was für sein Geld) und führe das dann lokal aus.
 
  • Gefällt mir
Reaktionen: sereX, Fritzler, Zockmock und 30 andere
nene, so einfach ist das nicht. Deine Quadro im Keller wird 24/7/365 so viel Stromkosten verursachen, dass es dir schwindelig wird ;)
Plus: was schafft denn eine Quadro gegenüber 100.000 Stück, die im Server laufen? Einen Buchstaben von den Anderen zu unterscheiden?
 
  • Gefällt mir
Reaktionen: CableGuy82
Ich kenne mich mit LLM nur minimal aus, aber bei anderen ML Modellen hat man doch nur starke Hardware benötigt um das Model zu trainieren - anwenden ging dann mit deutlich weniger Hardwarepower. Wir haben damals ein Model entwickelt um Stimmen zu analysieren (Alter, Geschlecht, Stimmung, etc). Das Model zu trainieren erforderte viel Hardware, später in Echtzeit laufen zu lassen lies sich das auf einem Pi. Also braucht es da überhaupt eine Quadro dann später?
 
  • Gefällt mir
Reaktionen: Arc Angeling, Bright0001 und CableGuy82
Dass Open Source überflügelt ist irgendwo ja auch nur der 'natürliche Lauf der Dinge' - wenn die ganze Welt kooperiert kann keine Firma dagegen anstinken. Klar ist das auch eine romantisierte Aussage, aber von der Hand weisen kann man den zugrunde liegenden Gedankengang in meinen Augen nicht.
 
  • Gefällt mir
Reaktionen: chabba, lemba, mojzika1 und 3 andere
Der Leak der rauskam ist schon spannend. Wirklich interessant zu lesen, wie die Situation bei Google wirklich ist. Der Bard ist ja mal ein totaler Reinfall verglichen mit GPT-4, ChatGPT und mittlerweile sogar Open Assistant, den ich hauptsächlich benutze.
Kunden würden demnach nicht das beste Modell, sondern das mit dem besten Preisleistungsverhältnis nutzen wollen.
Natürlich ist er noch nicht so gut wie ChatGPT oder GPT-4 aber ein Gratisprogramm ist schwer zu schlagen.

Auch versteht OA schon ein bisschen die Bairische Sprache und deren Dialekte, persönlich mein Zweitwichtigster Grund. Wenn nur mehr Sprecher bzw. Freiwillige wären. Zwinker Zwinker ;)
 
Zuletzt bearbeitet von einem Moderator: (*ich hab mit der firma hinter OA nichts zu tun, bin nur freiwilliger hobbyist)
  • Gefällt mir
Reaktionen: fullnewb, CableGuy82 und nyster
Das muss man sich halt leisten können. Aber wenn man die Micro$oft Milliarden hat kann man ja auch etwas klotzen und muß nicht kleckern.
Für Bing muss es womöglich so aufwändig sein, steht ja auch in der Öffentlichkeit und jedes Defizit wird groß angeprangert, aber für die verschiedenen Lösungen, die diverse Firmen benötigen ist halt Anpassbarkeit und Kosteneffizienz besser.

Wieviel Rechnepower benötigt man denn für so ein paar in den Kommentaren genannten Lösungen mit 200MB oder 2 GB, die man lokal auf den heimischen PC packen könnte? Für, z.B. "Schreib einen Liebesbrief". Rödelt da der PC die nächsten Jahre oder hat man am Morgen oder nach einer Stunde ein Ergebnis?
Oder wär das ein falscher Einsatzweck? Was würde man denn so damit sinnvoll anstellen können? Bin da leider eher an den Punkt "was soll ich damit?" Wobei die natürlich auch nicht direkt für mich zu Hause geschaffen wurden.
 
  • Gefällt mir
Reaktionen: CableGuy82
silentdragon95 schrieb:
nur dass alles lokal läuft und ich keinen Tech-Konzern mit Daten füttere.
Apples Siri … Die Spracherkennung also Speech to Text läuft auf allen iPhones ab XS lokal. Alle neuen HomePods ebenfalls. Alle onlinenanfragen gehen immer noch über Apple, aber alles was Persönlichkeitswert hat bleibt lokal.
 
  • Gefällt mir
Reaktionen: CableGuy82
Termy schrieb:
Dass Open Source überflügelt ist irgendwo ja auch nur der 'natürliche Lauf der Dinge' - wenn die ganze Welt kooperiert kann keine Firma dagegen anstinken.
Immer mehr Datenbank Inhaber wollen aber Geld für ihre Daten. Da kommt Open Source wahrscheinlich nicht ran. Große Konzerne schon eher.
 
  • Gefällt mir
Reaktionen: Forlorn und CableGuy82
Der_Picknicker schrieb:
Apples Siri … Die Spracherkennung also Speech to Text läuft auf allen iPhones ab XS lokal. Alle neuen HomePods ebenfalls. Alle onlinenanfragen gehen immer noch über Apple, aber alles was Persönlichkeitswert hat bleibt lokal.
Dann doch lieber Samsungs Bixby.
Beim iPhone nach kurzer Zeit deaktiviert, denn so langsam und unfähig ist kein anderer Sprachassistent.
 
@Maxminator Ich bin mir ziemlich sicher, dass ich schon von durchaus brauchbaren Modellen gelesen habe, die lokal auf normaler PC-Hardware lauffähig sind, ist halt nur alles aktuell noch sehr kompliziert.

Der_Picknicker schrieb:
Bin selbst iPhone Nutzer, aber Siri ist halt leider auch wirklich schlecht :D Zu viel mehr als Erinnerungen und Timer stellen ist die nicht wirklich zu gebrauchen. Klar ist es lobenswert, dass alles lokal passiert, aber wenn ich auf 90% meiner Fragen einfach nur eine Google-Suche bekomme kann ich das auch gleich selber machen.
 
Darum geht es ja auch nicht. Es ging mir nur darum, dass es LOKAL läuft. Selbst aufwändige Texte lassen sich in Echtzeit! Diktieren. Ohne dass auch nur ein Wort das iPhone verlässt.
 
  • Gefällt mir
Reaktionen: Zockmock, jotecklen, CableGuy82 und eine weitere Person
@seyfhor Auf einem handelsüblichen CPU (8 Kerne) geht das mittlerweile mit ca. 1 Wort/Sekunde mit ca. 8GB großen 13B Modellen und liefert brauchbare Ergebnisse.

z.B. mit https://github.com/ggerganov/llama.cpp kann man das lokal laufen lassen.
 
  • Gefällt mir
Reaktionen: aid0nex, Mr Peanutbutter, CableGuy82 und 3 andere
Und am Ende stellt die KI fest, der Mensch ist das Problem!
10 Mrd. Dollar Invest, mal schauen wann die ROI hier erreicht werden soll.

Forschung ist gut und wichtig. Mal sehen wohin es führt.
 
Haldi schrieb:
Sieht man besonders gut auch bei Stable Diffusion.
Es gibt 1.5-2gb grosse Modelle.
Und dann gibt es die 150-244mb Loras und Lycoris die einen ähnlichen Korrektur Effekt erziehlen können bei wesentlich weniger Aufwand!

Sehr schön zu sehen wenn man hier mal bissel durch browst.
https://civitai.com/

Loras/Lycoris sind aber sehr speziell bzw. limitiert um beispielsweise das Erstellen von spezifischen, vordefinierten Charaktern zu ermöglichen. Sie benötigen trotzdem ein ~2GB großes Checkpoint Modell als Basis.
 
Maxminator schrieb:
nene, so einfach ist das nicht. Deine Quadro im Keller wird 24/7/365 so viel Stromkosten verursachen, dass es dir schwindelig wird ;)
Nicht nötig. Llama Sprachmodelle sind bereits auf einem Smartphone Lauffähig.
Nur das Trainieren frisst viel Leistung.
Der Rest wurde alles optimiert.

@4nanai
Ja genau das!
Du hast ein Standard Model das OpenSource ist und kannst es dann auf deine spezifischen Bedürfnisse anpassen.
 
silentdragon95 schrieb:
Bleibt zu hoffen, dass der Google Mitarbeiter Recht behält. Ich träume ja schon etwas von einem Sprachassistenten wie z.B. Alexa in meiner Wohnung, nur dass alles lokal läuft und ich keinen Tech-Konzern mit Daten füttere. Wenn es dafür halbwegs fertige Implementierungen gibt klatsche ich einfach eine Quadro-Karte in meinen Homeserver (dann tut der auch mal was für sein Geld) und führe das dann lokal aus.
Da fühle ich mit dir. Ich hätte gerne auch "Smart Home", welches lokal ohne Internetanbindung und mit Sprachassistent funktioniert.

Aber nicht mehr weit und wir haben auch einen Jarvis von Tony Stark :D
 
  • Gefällt mir
Reaktionen: ckui
Zurück
Oben