@Snapuman
Ja das kann ich mir auch vorstellen, dass die Codequalität (noch) nicht an die eines erfahrenen Programmierer (oder ganzes Team) herankommt und gerade auch Sicherheit ein wichtiges Thema ist.
Ich erzähle mal, was ich derzeit damit mache.
Ich habe mir eine Webseite erstellt, die mir zur Analyse von 2200 Aktien dient (ca 23000 Werte sind drin aber ich habe mich auf die 2200 "wichtigsten" Werte beschränkt). Ich habe für meinen Anwendungsfall keine kommerzielle Lösung gefunden, die das bietet, was ich gesucht habe. Mein Handelsansatz ist die Markttechnik, da suche nach bestimmten Chartmustern und muss in möglichst kurzer Zeit sehr viele Charts durchklicken und für mich bewerten. Das mache ich einmal die Woche. Von 2200 Werten bleiben vielleicht 3 bis 8 Werte übrig, bei denen ich eine Order in den Markt stelle und das diese auch ausgeführt werden, ist nicht sicher.
Meine Webseite zieht sich die aktuellen Tagesdaten und generiert Bilddateien. Diese kann ich angucken und von Hand bewerten. Nun habe ich die Bewertung automatisiert. Das macht ein CNN Model, welches ich mit meinen von Hand bewerteten Daten trainiert habe. Dieses sortiert schon sehr zuverlässig den "Müll" raus, so bleiben nur 200 - 300 Bilder übrig, die ich derzeit noch händisch nachkontrolliere, da ich nicht genug Bilder/Daten von den guten Bewertungen habe und das CNN Modell die Unterscheidung nicht vollständig hinbekommt. Mein Modell kann ich später aber weiter trainieren, wenn ich auch hierfür mehr Daten parat habe. Würde ich die gleiche Bewertung zum Bsp. im MetaTrader oder einer Plattform wie TradingView machen, bräuchte ich neben einer Watchlist mit den 2200 Werten sehr sehr viele Mausklicks, um von einer Aktie zur nächsten Aktie zu wechseln und damit erheblich mehr Zeit als mit meinem Ansatz.
Die Webseite habe ich auch so ausgelegt, dass ich diese im Prinzip für andere zugänglich machen und daraus ein Geschäft entwickeln könnte. Das wäre dann natürlich eine andere Situation und dann müsste ich hier Geld in die Hand nehmen, eine Firma gründen und die ganze Codebasis überprüfen lassen oder gar einen Entwickler einstellen.
Derzeit habe ich meine Seite so gut es geht abgesichert. Aktuell geht die Benutzung nicht ohne WireGuard Verbindung. Mir macht diese Hobbyarbeit auch echt Spaß.
Sind mit Sicherheit schon viele hundert Stunden, die ich hier reingesteckt gehabt und ich habe noch jede Menge Ideen, die ich derzeit integriere oder es in Zukunft will. Aktuell erweitere ich das System auf das Scannen von Indizes, Kryptowährungen, Rohstoffe und Forex Werte. Hier möchte ich eine durch CNN Modellen unterstützte Trenderkennung mit Benachrichtigungsfunktion auf kleineren Zeitebene integrieren, um auch die Möglichkeit fürs Daytrading zu haben, ohne das ich aktiv die Kurse verfolgen muss. Das wäre neben der Arbeit auch nicht möglich.
Alles in allem kann ich dank KI etwas durch Aktienkäufe dazu verdienen, habe in meiner Freizeit ein "kleines" Hobby zum Basteln und konnte nun durch den Agentenmodus meinen Arbeitsfluss signifikant beschleunigen. Vorher habe ich mit Chatfenster im Browser gearbeitet. Immer wieder Code dort reinkopiert, bearbeitet, zurück kopiert, auf den Server geladen und getestet. ChatGPT fängt an bei langen Chatverläufen sehr langsam zu werden, Dinge vom Anfang geraten aus dem Kontext und ChatGPT erfindet neue Dinge. Bei neuen Chatfenstern beginnt wieder fast alles von vorne (ich habe zwar ein Projekt Ordner mit den wichtigsten Dateien erstellt, das hatte auch etwas geholfen im Vergleich zu vorher). Aber es war dennoch mühsam.
Nun nutze ich VS Code mit GitHub, hier das Abo mit 300 Premium Requests und da kann dann Opus 4.5 oder andere Modelle einfach alle Dateien meines Ordners (und das sind inzwischen verdammt viele Ordner und Dateien da ich hier viel modularisiert habe) lesen und gezielt auf meine Prompts eingehen, ohne das ich alle Dateien, bzw. Codezeilen ins Chatfenster laden muss. Angepasst werden die auch direkt noch. Das hat mir doch enorm geholfen.
Ich bin sehr gespannt auf die weitere Entwicklung.