News KI-Chatbot für Firmen: OpenAI veröffentlicht ChatGPT Enterprise

Screenshot 2023-08-23 165537.png


Und nun? Können, sollen nicht? Wünsch dir was?
 
  • Gefällt mir
Reaktionen: V3nDr4r, Coeckchen, NoNameNoHonor und 10 andere
NameHere schrieb:
Anhang anzeigen 1389612

Und nun? Können, sollen nicht? Wünsch dir was?
Eigene Daten müssen ja nicht persönliche Daten sein.

Wenn ich nicht mehr in jedem Chat unser Geschäftsmodell erklären muss, damit ChatGPT den Kontext hat, hilft das schon sehr. Das sind eigene Daten. Die sind aber nicht persönlich. Was wir machen steht auf unserer Webseite.
 
  • Gefällt mir
Reaktionen: qappVI, stevefrogs, rocketfoxx und 3 andere
FrAGgi schrieb:
Eigene Daten müssen ja nicht persönliche Daten sein.
Stimmt! Die Frage ist, wo die Grenze gezogen wird und wie diese definiert wird. Es werden schnell aus eigenen, persönliche Daten.
 
  • Gefällt mir
Reaktionen: Heinrich Bhaal
LamaMitHut schrieb:
Zusammenfassend lässt sich sagen, dass OpenAI und der BfDI zwei sehr unterschiedliche Organisationen sind. OpenAI ist ein privates Unternehmen, das an der Entwicklung von KI-Technologien arbeitet, während der BfDI eine staatliche Behörde ist, die für den Schutz personenbezogener Daten in Deutschland zuständig ist.
Die eine Organisation sagt der anderen Organisation was sie darf oder nicht darf.
 
  • Gefällt mir
Reaktionen: LamaMitHut
NameHere schrieb:
Stimmt! Die Frage ist, wo die Grenze gezogen wird und wie diese definiert wird
Das liegt aber in der Compliance, und ist somit entweder an interne Vorgaben oder an externe Gesetze gebunden.
Man kann mit solchen KIs schon gute Zusammenfassungen erstellen lassen und damit Chatbots bauen, die etwa dem Kundensupport helfen können oder das Onboarding von Mitarbeitern vereinfacht. Dafür braucht man keine Personenbezogene Daten, dafür kann man aber gut Dokumentationen verwenden.

LamaMitHut schrieb:
Folgende Erklärung wurde mithilfe von KI erstellt:
Ich finde ja toll, dass Menschen KIs nutzen können. Wäre halt nur besser, wenn der Output etwas mit dem Thema zu tun hat.

flappes schrieb:
Was/wieviel ist ein Token?
Das kann man nicht so ganz pauschalisieren und ist auch bei OpenAI nicht ganz ersichtlich. https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them

@Topic: Wäre mal interessant, diese Kosten mit den Kosten von Microsofts OpenAI zu vergleichen. Bei letzterem sind die Tokens günstiger, dafür müssen die Daten in einem recht teuren Data Synapse Storage liegen.
 
flappes schrieb:
Was/wieviel ist ein Token?
Zitat von https://openai.com/pricing: 1000 Token entsprechen etwa 750 Wörtern. Damit ist es also für Gelegenheitsuser von GPT3.5 Turbo oder GPT4 bei weitem günstiger, das über die API zu machen als über die 20$ / Monat für ChatGPT.
 
Zuletzt bearbeitet: (Erweiterung)
  • Gefällt mir
Reaktionen: flappes
Ich poste hier mal ein Vollzitat aus dem Heiseforum (hoffe das ist erlaubt, ich will mich aber nicht mit fremden Federn schmücken) weil dort ein User eine sehr gute Frage gestellt hat die mich brennend interessiert aber bisher leider nicht beantwortet wurde. Vielleicht hat ja einer der hier anwesenden eine Antwort.

Die Ankündigung liest sich für mich mehr so, als könne man dadurch lediglich die Ausgaben des Modells in Art und Weise formen - durch vorgegebene "Frage/Antwort-Paare" im Stil der ChatCompletions-API. Die Formulierungen hier im Heise-Artikel wären demnach etwas irreführend, suggeriert doch "mit eigenen Daten füttern", dass diese eigenen Daten als "Weltwissen" anschließend im Model zur Verfügung stehen würden. Dem ist perspektivisch nie verlässlich so, oder?
Hat jemand Erfahrungen mit früheren Finetunings gemacht? Wie fielen die aus? (Ich habe mal eine kurze Demo gesehen, in der GPT-3 keine ganzen Sätze mehr zustande gebracht hat...)

https://www.heise.de/forum/heise-on...tern/Nur-Styletransfer/posting-43019390/show/
 
@7H0M45 das steht bereits in der Einleitung zu der Ankündigung von OpenAI
As with all our APIs, data sent in and out of the fine-tuning API is owned by the customer and is not used by OpenAI, or any other organization, to train other models.
https://openai.com/blog/gpt-3-5-turbo-fine-tuning-and-api-updates

Also die Dateien bleiben in der eigenen Umgebung, jedoch wird das Modell darauf abgezielt, die Antworten nur aus dem ihm zur Verfügung stehenden Datensatz zu extrahieren. Je nach Implementierung - zumindest ist es so im Azure Chatbot wohl so - kann man auch explizit angeben, dass er keine Informationen außerhalb des ihm zur Verfügung stehenden Datensatzes beziehen soll.
 
Verstehe ich jetzt aber so, dass die Daten weiterhin aus meiner Organisation raus gehen und auf deren Server liegen? Wenn ich sensible Daten habe, nutzt mir die reine Aussage von OpenAI nicht viel ehrlich gesagt.

Es gibt ja schon Möglichkeiten, eigene Modelle auf einem eigenen Server mit eigenen Daten zu trainieren (muss nicht Chat GPT sein). Hat damit schon jemand im eigenen Unternehmen Erfahrungen gemacht?
 
"Zudem lässt sich auf Basis eigener Daten ein bestimmter Ton festlegen. Antworten erscheinen also in einem Stil, der typisch für das Unternehmen ist."

Sehr gut. Nur so kann man es im Amt einsetzen um Personalkosten zu senken und produktive Arbeit zu gewährleisten. Ohne den (leicht) hochnäsigen Ton und die grummelige Art der Menschen dort vor Ort würde doch niemand glauben, dass man im Amt ist.

Und wirklich neu ist diese Art der Umsetzung von Technik ja nun auch nicht. Ich erinnere mich immer gerne an Navigationssysteme im Domina Style.

"BIEG HIER AB!!!".

mfg
 
Ist schon eine interessante Sache. Es gibt ja auch diverse KI Assistenten, die lokal installiert werden können. Wenn man diese mit den Firmendaten speist, dann dürfte das ja auch Datenschutztechnisch kein Problem darstellen.
Ich könnte mir das sehr gut als Hilfsprogramm für Angestellte (Was braucht meine Personalabteilung bei einer Krankmeldung?) oder auch Kunden vorstellen.
Sind zwar alles Sachen, die man auch ohne Modelle abbilden kann, aber bei Änderungen muss man nicht immer alle vordefinierten Fragebereiche durchgehen, sondern das wird selbst erledigt.
 
interesTED schrieb:
...Wenn ich sensible Daten habe, nutzt mir die reine Aussage von OpenAI nicht viel ehrlich gesagt.

Es gibt ja schon Möglichkeiten, eigene Modelle auf einem eigenen Server mit eigenen Daten zu trainieren... Hat damit schon jemand im eigenen Unternehmen Erfahrungen gemacht?
Naja, so viel mehr hat man ja bei z.b. Office365, AzureAD, GCP und co ja auch nicht. Zudem steht in den Term of Use ganz klar, dass es für die Verarbeitung von Personenbezogenen Daten eine AV braucht. Das ist weit weg von Optimal, aber die Richtung stimmt imo.

Bei "den anderen Modellen" sind mir nur die diversen LLaMA-Spielarten bekannt und die kommerzielle Nutzung ist bei denen untersagt (und kommerziell heist nicht: du musst damit Geld verdienen).
 
Interessant wäre, wie es mit den persönlichen Aussagen firmenintern gehandhabt würde, wenn man wie im Beispiel oben Mitarbeiter für info´s und Auskünfte erstmal nur über ein KI-Portal (o.ä.) sprechen würden.
Am besten wäre eine Vertrauensperson im Unternehmen mit KI zu ersetzen :evillol:
 
Zurück
Oben