News Ugreen NASync DH4300 Plus: NAS mit Arm-SoC, 2,5 GbE und Foto-KI startet mit Rabatt

Stahlseele schrieb:
Was ich auch nicht verstehe.
Wenn ich ein OS aufsetze und das kommt mit dem Dateisystem der HDDs klar,
dann gibt es keinen Grund, warum die HDDs komplett formatiert werden müssen.

Liegt daran, weil die Fertig-NAS in der Regel kein eigenen Storage haben und das OS auf die HDDs installieren. So ist es zumindest bei Synology.
 
schrotti12 schrieb:
Viel zu oft passiert das einfach so im Hintergrund und führt zu Ergebnissen, die nicht nachvollziehbar sind. Bei Bildern könnnte ich mir vorstellen, dass diese automatisch im Hintergrund "aufgehübscht" bzw. verschlimmbessert werden

Das ist aber schon sehr viel "ich glaube". In erster Linie geht es um Kategorisierung, also Tagging, etwa bei gleichen Personen, Orten, Events. Kenne keine Lösung, die automatisch die Bilder verändert. Bei Synology muss man dafür zudem nicht nur die entsprechende "App" erst installieren, sondern die Funktion dafür dann auch explizit einschalten. Wie Ugreen das hier hält, weiß ich nicht. Aber bezweifle, dass es davon deutlich abweichen wird.
 
MaverickM schrieb:
@Banned
Na, aber einen Laptop haben diese Menschen doch auch schon nicht mehr, oder habe ich den Beitrag falsch verstanden? Ich meinte die Menschen, die wirklich nur noch ein Mobiltelefon haben.
Selbst ich nutze mein PC kaum noch, ein Notebook habe ich auch nicht. Fast alles läuft über Telefon oder Tablet. Meine Eltern nutzen gleiches. Viele Bekannte haben auch kein Notebook mehr. Festnetz sowieso nicht.

Also doch, es verlagert sich immer mehr weg vom PC / Notebook. Jedenfalls so das, was ich sehe.
 
@KarlAlbrecht,

Das würde ich nicht so pauschalisieren. Bei mir ist es genau andersherum. Wenn ich alles mit einem Mobilgerät einrichten würde, flöge dieses am ersten Tag schon gegen die Wand.

Wenn keine Ansprüche vorhanden sind, kann man das mit Mobilgeräten machen. Falls es aber anspruchsvoller wird, kann man das aber vergessen!

Mein Mobilphone ist oft mehrere Wochen ausgeschaltet und wird nur für unterwegs genutzt, weil ich das haptische Festnetzphon und die Freisprecheinrichtung persönlich vorziehe.

Selbst meine Eltern nutzen lieber einen Laptop und noch einen PC. Mobil ist dort auch nur etwas für unterwegs und wird ähnlich wie bei mir behandelt.

Aber klar hast du recht, Mobil wird mehr genutzt, nur was sagt das über die Leute, Interessen und Verständnis aus? Nichts ohne QR-Code am Laufen bekommen, aber Hauptsache Instagram und Co.
 
  • Gefällt mir
Reaktionen: MaverickM
snoogans schrieb:
Wenn keine Ansprüche vorhanden sind, kann man das mit Mobilgeräten machen. Falls es aber anspruchsvoller wird, kann man das aber vergessen!
Ist halt die Frage was man macht. Mit Mobiltelefon 2 Wochen ausschalten bist du halt einer von ganz wenigen, die das so machen.
Was machst du denn anspruchsvolles, wo das Handy oder Tablet gegen die Wand fliegt?

Ich sage ja auch nicht, dass niemand ein Notebook benötigt. Aber es wird jedenfalls weniger, was ich so beobachte.
 
@snoogans
Sehe ich ähnlich. Ich komme mit dem kleinen Bildschirm nicht klar. Also für das, was man damit im Allgemein macht (Messaging, E-Mail lesen, Telefonieren, Nachrichten lesen) ist das OK. Aber sobald man damit "mehr" machen will, wirds halt umständlich. Weder will ich darauf längere Texte schreiben, noch will ich damit etwas recherchieren. Selbst "Shopping" mach ich lieber am Rechner mit großem Bildschirm... Auf dem Fuzzelding sieht man ja nicht mal die Produktbilder ordentlich, trotz Pinch-to-Zoom.

Und dann kommt halt eben obendrein die Sache, die ich oben erwähnt habe, hinzu, das manche Sachen am Mobilgerät gar nicht möglich sind, weil die Webseiten nicht ordentlich im mobilen Browser funktionieren und native Apps die Funktion nicht anbieten.
 
  • Gefällt mir
Reaktionen: fox40phil und und tschüss
KarlAlbrecht schrieb:
Was machst du denn anspruchsvolles, wo das Handy oder Tablet gegen die Wand fliegt?
Ach alles Mögliche, von Custom-ROMs über Netzwerk, NAS, Docker & Container bis zum Hosting und Zertifikaten. Das alles auf einem kleinen 6-Zoll-Gerät oder Tablet mit Touch zu machen, wäre wohl unpraktisch in der Haptik und für die Augen. Dass ich kaum Mobilgeräte (Android) nutze, sagt ja nicht, dass ich damit nicht um kann!

KarlAlbrecht schrieb:
Ich sage ja auch nicht, dass niemand ein Notebook benötigt. Aber es wird jedenfalls weniger, was ich so beobachte.
In meiner Betrachtung sagt das aber mehr über Leute aus, als du denkst, und die Einstellung als auch das Desinteresse lässt sich auch auf andere Bereiche projizieren. Sobald etwas mehr Aufmerksamkeit oder Engagement benötigt ist, wird alles fallen lassen, ohne überhaupt richtig das richtig verstanden zu haben. Das ist aber nur meine Meinung.

Da wir beim Thema NAS hier sind, versuch doch deine Eltern von einem NAS zu überzeugen, um Google, M$ oder Apple etwas entgegenzustellen. Alles läuft auch ohne diese Anbieter. Dazu noch einen selbst gehosteten Messenger. Was meinst du, was du als Antwort bekommst? Falls ich mich irre, kannst du das alles natürlich mit deinem Phone einrichten und sicher machen, dann reden wir noch einmal.

Den Sinn deiner Aussage verstehe ich ja, nur halte ich es nicht für eine positive Entwicklung.
 
snoogans schrieb:
Sobald etwas mehr Aufmerksamkeit oder Engagement benötigt ist, wird alles fallen lassen, ohne überhaupt richtig das richtig verstanden zu haben. Das ist aber nur meine Meinung.
Ich mag irgendwie die Arroganz nicht, der da mit schwingt.

Also vorneweg: Ich bin auch eher jemand, der große Computer mag, wo man einen großen Bildschirm, ordentliche Tastatur usw. hat, weil ich das für mich einfach komfortabler finde.
Ich hab privat auch schon eine ganze Weile ein NAS. Und zwar nicht irgendwie ein NAS von der Stange, sondern Selbstbau-Style.

Mir ist aber bewusst, das ich einen gewissen Faible für den Kram hab. Und das bei anderen Menschen die Schwerpunkte woanders liegen und der dann seine Bereiche hat, wo er gut drin ist und nicht ich.

Ich hab z.B. Bekannte, die sind so in Richtung Selbstversorger. Die haben auch ein kleines Stück Land wo sie Gemüse anbauen usw. Und da sind die richtig gut drin. Mit Computern haben die weniger am Hut. Die haben zwar auch ein Handy. Was sie aber im Prinzip nur dafür verwenden, um sich mal auszutauschen oder Informationen zu "ergoogeln". Sonst liegt das Ding in der Ecke.

snoogans schrieb:
versuch doch deine Eltern von einem NAS zu überzeugen, um Google, M$ oder Apple etwas entgegenzustellen. Alles läuft auch ohne diese Anbieter.
Andere Leute haben andere Prioritäten. Wenn ich jetzt die o.g. Leuten was von digitaler Souveränität erzähle und das man wegkommen muss von diesen Goggles, Apples usw. weißt Du, was ich da als Antwort kriegen würde:
Ich würde als Antwort kriegen, das ich auch meine Abhängigkeiten habe. Wenn ich im Supermarkt keine Lebensmittel mehr kriege, weil die zu teuer geworden sind oder nicht beliefert wurden (was ja durchaus passieren kann; gerade in Zeiten von Klimawandel und Co ist das ja nicht mehr undenkbar), dann hätte ich ein riesen Problem was auch an die Existenz geht.
Das wäre für die jetzt nicht völlig egal, aber noch ziemlich gut aufzufangen.

Wenn dagegen Google seine Dienst killswitched dann wäre das aber kein Problem. Dann könnten die vielleicht nicht mehr googlen und mailen aber egal, hat eh nicht Priorität.

btw.: wirst auch Du Deine Abhängigkeiten im IT-Bereich haben. Oder hast Du Dir deine Hardware selbst zusammengelötet? Sämtliche Software selbst geschrieben? Selbst wenn man die Open-Source-Software mal rausrechnet, wirst Du in Summe mehr proprietäre Software/Dienste verwenden, als diese Leute.
Von daher würde ich an Deiner Stelle mal den Ball flach halten.
 
WhiteHelix schrieb:
Weniger vorstellen, mehr nachschauen ;)

MaverickM schrieb:
Das ist aber schon sehr viel "ich glaube". In erster Linie geht es um Kategorisierung, also Tagging, etwa bei gleichen Personen, Orten, Events. Kenne keine Lösung, die automatisch die Bilder verändert. Bei Synology muss man dafür zudem nicht nur die entsprechende "App" erst installieren, sondern die Funktion dafür dann auch explizit einschalten. Wie Ugreen das hier hält, weiß ich nicht. Aber bezweifle, dass es davon deutlich abweichen wird.
Ihr habt ja recht, das steht so drinnen. Also ich darf das nicht glauben, soll aber den Herstellern vertrauen, die mit einer komplett geschlossenen KI arbeiten, deren Modelle nicht nachvollziehbar sind und die, zumindest aus meiner Sicht, eine komplette Blackbox darstellen. Klingt für mich nach blindem Vertrauen. Meiner Erfahrung nach führt das dann dazu dass die Hersteller machen was sie wollen, wenn es keine Kritik und Zweifel seitens der Kunden mehr gibt.

Ist auch gut, dass das erst installiert und aktiviert werden muss. Meine Erfahrungen mit KI, zwar nicht auf dem NAS, aber auf dem Desktop sind die, dass ich die Programme und Chatbots deaktiviere und sie mit dem nächsten Update wieder aktiviert sind. Obwohl ich sie nicht will.

Das Ganze hat sicher seine Vorteile, aber aktuell wird es überall forciert, obwohl es oft gar keinen Sinn macht. Dadurch hat sich bei mir eine Grundresistenz eingestellt und Produkte, die KI nur erwähnen, werden sofort uninteressant.
 
schrotti12 schrieb:
Also ich darf das nicht glauben, soll aber den Herstellern vertrauen, die mit einer komplett geschlossenen KI arbeiten, deren Modelle nicht nachvollziehbar sind und die, zumindest aus meiner Sicht, eine komplette Blackbox darstellen.
Naja. Aber auf das Vertrauen bist Du ja immer angewiesen. Das hat ja erst mal mit KI nichts zu tun. Auch ohne KI kann man ja "schlimme Sachen" tun.
Man kann das abmildern, in dem man Open-Source-Software einsetzt. Aber auch da ist das Vertrauen-müssen-Problem ja nicht weg, weil wer kann schon so ein Quelltext lesen und verstehen. Selbst wenn man Nicht-Laie ist, ist das enorm aufwendig. Man könnte dafür natürlich eine KI zu Hilfe nehmen aber garantieren tut das auch nichts, vorallem weil Du dann auch wieder der KI.

Und selbst wenn Du das alles hast, hast Du immer noch genug Bestandteile die nicht "open" sind. Die Hardware (inkl. Firmware) usw.

Die KI führt hier also nicht eine grundsätzlich neue Bedrohung ein.

Und wenn die KI auf eigener Hardware läuft, hast Du zumindest nicht grundsätzlich ein Privacy-Problem, was Du bei ChatGPT und Co hast.

Übrigens: Blackbox ist zwar richtig. Aber gerechterweise bei dieser Technologie für die Hersteller auch. :-) Für die ist auch nur begrenzt vorhersagbar, was ein Modell wirklich ausspuckt.

schrotti12 schrieb:
Das Ganze hat sicher seine Vorteile, aber aktuell wird es überall forciert, obwohl es oft gar keinen Sinn macht.
Das stimmt. Das ist aber auch darin begründet, das es gerade eine Hype-Technologie ist und Hype-Technologien werden während des Hypes immer überbordend eingesetzt.
Das ist doof. Aber auch nicht unbedingt etwas, was Du nur bei KI hast.

schrotti12 schrieb:
Dadurch hat sich bei mir eine Grundresistenz eingestellt und Produkte, die KI nur erwähnen, werden sofort uninteressant.
Das kann ich verstehen. Grundsätzlich ist eine gewisse Skepsis und ein "nicht blind hinterher rennen" ja auch gut. Insbesondere weils auch an Stellen eingesetzt wird, wo es sich nicht gut eignet oder wo man eigentlich nur zeigen will: "Wir sind modern und wir machen hier auch mit KI".
Man sollte halt nur aufpassen, nicht das Kind mit dem Bade ausschütten.

Sprich: Da wo es wirklich was bringt und man es auch quasi gefahrlos einsetzen kann, da kann man das ja auch zum eigenen Vorteil benutzen und dann wäre es ja doof das "aus Prinzip" nicht zu machen.

Und gerade wenn man Strukturen in ansich unstrukturierten Daten erkennen will, ist das durchaus ein adäquates Hilfsmittel, auch wenn es beileibe nicht perfekt arbeitet.
 
schrotti12 schrieb:
Also ich darf das nicht glauben, soll aber den Herstellern vertrauen

Also bei aller Liebe, aber das hat schon etwas von Aluhut... ;)
 
@MaverickM Aluhut wäre es, wenn ich sagen würde, dass alles schlecht ist, dass die Regierung damit etwas im Schilde führt und und KI versklaven will. Das sage ich aber nicht. Versteht mich nicht falsch, ich verwende selbst KI Tools. Ich mache den Browser auf und verwende sie. Das bedeutet aber nicht, dass ich sie in meinem Editor, meiner Zahnbürste, meiner Kaffeemaschine, meinem Thermostat und in was weiß ich nicht wo sonst noch überall integriert haben will.

Wenn ich meine Fotos getagged haben möchte, mache ich das Programm auf und lasse das drüber laufen. Wenn ich das nicht haben möchte, dann will ich auch nicht, dass das auf meinem NAS passiert. Was mich beunruhigt ist der Kontrollverlust, der gerade statt findet.

andy_m4 schrieb:
Übrigens: Blackbox ist zwar richtig. Aber gerechterweise bei dieser Technologie für die Hersteller auch. :-) Für die ist auch nur begrenzt vorhersagbar, was ein Modell wirklich ausspuckt

Das macht's jetzt nicht besser ;-)

andy_m4 schrieb:
Sprich: Da wo es wirklich was bringt und man es auch quasi gefahrlos einsetzen kann, da kann man das ja auch zum eigenen Vorteil benutzen und dann wäre es ja doof das "aus Prinzip" nicht zu machen.

Erstmal danke für deine ausführliche Antwort und die angeregte Diskussion! Das sehe ich genau so und ich stimme dir bei deinen Punkten zu. Es ist die Kombination aus bekannten Gegebenheiten (Blackbox, Vertrauen) kombiniert mit Hype und einer gewissen Arbeitserleichterung. Dadurch sind die Leute weniger aufmerksam und die Hersteller forcieren es mehr und ich glaube diese Kombination macht es, dass nützliche KI oft in Geräte und Funktionen integriert wird, wo sie gar nichts bringt, nicht rein passt und überflüssig wirkt. Ich glaube dieses Gefühl von "Fehl am Platz" regt bei mir meine Ablehnung an, das dann als "Aluhut Denken" rüber kommt.

Irgendwie trifft das Jurassic Park Zitat da den Nagel auf den Kopf: "Your scientists were so preoccupied with whether or not they could, they didn't stop to think if they should."

Ein Manager sagt wir packen KI in Gerät XY und der Ingegnieur, der fragt, ob das eine gute Idee ist, wird entlassen.
 
schrotti12 schrieb:

Nein, das ist Aluhut.

Sorry, aber die Software mit dieser Funktion gibt es seit Jahren. Und ich habe dir genau beschrieben wie sie funktioniert, was sie macht, und was sie nicht macht. Und dann kommst Du mit dem Satz oben und willst Fakten (das Offensichtliche) abstreiten!?

Wenn das nicht Verschwörungstheorie ist, weiß ich auch nicht mehr...
 
MaverickM schrieb:
Also bei aller Liebe, aber das hat schon etwas von Aluhut... ;)
Naja. Seine Kritik ist ja nicht, das da finstere Mächte am Werk sind oder das wie es jetzt ist, alles ganz schlimm ist.
Wenn eine Sache inflationär eingesetzt wird, dann kann man schon verstehen, das das als unangenehm empfunden wird.
Haben wir ja bei anderen Sachen auch. Man denke ja nur allein an den Cloud-Zwang der vielerorts herrscht (und der ja auch Leute dazu bewegt, sich überhaupt mit dem Thema NAS auseinander zu setzen). Und ist es ja auch in Ordnung, wenn man das kritisch beäugt. Anlässe genug gibts ja.
Deshalb ist das allein mit "Verschörungstheorie" wegzuwischen zu kurz gedacht.

schrotti12 schrieb:
Ich glaube dieses Gefühl von "Fehl am Platz" regt bei mir meine Ablehnung an, das dann als "Aluhut Denken" rüber kommt.
Es gibt ja auch schon negative Auswirkungen. Das Problem ist ja, das es schleichend ist. Und das man bei jedem Schritt sagen kann: "Ist doch alles halb so wild."
Und irgendwann steht man an einer Stelle, bei der man vom Ausgangspunkt gedacht, niemals freiwillig hingelaufen wäre.

schrotti12 schrieb:
"Your scientists were so preoccupied with whether or not they could, they didn't stop to think if they should."
Folgeabschätzungen werden sicher zu wenig gemacht. Aber vielfach lässt sich die Auswirkung einer Technologie auch gar nicht wirklich vorhersagen, weil sie gerne auch mal anders benutzt wird, als vielleicht ursprünglich vorgesehen.
Das World-Wide-Web wurde ja ursprünglich auch nur entwickelt, um den Informationsaustausch zwischen Forschungsinstituten zu erleichtern. Und wo stehen wir jetzt und was ist alles in der Zeit entstanden?

Zudem ist ja eine Technologie eher selten nur positiv oder nur negativ. Meistens hast Du ja beides.
Und wenn Du jetzt eine Technologie nicht machen würdest wegen den negativen Folgen, dann entgehen Dir natürlich auch die Positiven. Und natürlich muss man auch hier immer abwägen, ob der Nutzen die negativen Aspekte rechtfertigt. Aber das ist eben nicht trivial.
 
@andy_m4 Das seh ich auch so. Wie gesagt, ich denke nicht, dass KI schlecht ist. Aber ich brauch's nicht in Notepad, in Haushaltsgeräten oder in meiner IDE. Wenn ich es verwenden will, mach ich den Browser auf, öffne die Seite und stelle die Frage. Hat mir auch schon oft geholfen und viel Zeit erspart. Cloud Zwang, überall Anmeldung und Verwaltung meines Rechners durch die MS Cloud sind andere Frechheiten, die ich nicht ausstehen kann, aber hier geht's halt um die KI Integration.

Ich seh auch keine Verschwörungstheorie dahinter. Was mich stört ist die Aufdringlichkeit. Als ich letztens den Vergleich über Meta's Pläne gesehen hab hab ich mich halt gefragt, wozu? Ich meine das kostet alles Geld und braucht Platz und Strom.

Ein anderer Punkt ist der, dass ich immer öfter erlebe wie Schüler und Studenten einfach komplett allgemeine Anfragen an die KI stellen und sobald es nicht auf Anhieb funktioniert, geben sie auf bzw. verweigern das Lernen. Das hab ich aus erster Hand erlebt und weiß wohin das führt. Erstens leidet darunter die Fachkompetenz und zweitens der eigene Wille Neues zu lernen. Insofern würde ich KI erst verwenden, wenn ich mit der Materie vertraut bin. Ja das kommt schleichend und ich verstehe auch, warum KI so in den Markt gedrängt wird: Klar wär's schön wenn ich einfach sagen könnte "Programmier mir ein Spiel" und am schluss kommt ein Setup raus, das genau das Spiel installiert, das ich haben will. Ich denke dass viele Entscheider noch genau dieses Mindset im Kopf haben und das jetzt halt über KI in eine trügerische Reichweite gekommen ist.

Wenn das Aluhut-Denken ist, soll's so sein.
 
schrotti12 schrieb:
Wie gesagt, ich denke nicht, dass KI schlecht ist. Aber ich brauch's nicht in Notepad, in Haushaltsgeräten oder in meiner IDE.
Wobei es in der IDE wiederum ja sehr praktisch sein kann. :-)

schrotti12 schrieb:
Cloud Zwang, überall Anmeldung und Verwaltung meines Rechners durch die MS Cloud sind andere Frechheiten, die ich nicht ausstehen kann, aber hier geht's halt um die KI Integration.
Ja. Das sehe ich auch sehr kritisch. Das hat ja auch vergleichsweise harmlos angefangen und wurde dann immer mehr. Insbesondere, da man ja dort auch jetzt schon negative Auswirkungen sieht.
Und dann finde ich es seltsam, wenn dann manche sagen, das doch alles halb so wild wäre und man sich nicht so anstellen solle.

schrotti12 schrieb:
Erstens leidet darunter die Fachkompetenz und zweitens der eigene Wille Neues zu lernen.
Ja. Wobei ich mir gar nicht sicher bin, obs wirklich so ein Problem ist. Auch vorherige Technologien haben ja Wissen überflüssig gemacht aber gleichzeitig auch neue Wissensgebiete erschlossen.
Der Computer selbst ist doch das beste Beispiel dafür. Nimm z.B: mal Strömungssimulationen. Das zu früheren Zeiten mit Blatt und Papier oder selbst mit Taschenrechner zu machen wäre nicht machbar gewesen.
Der Computer hat diese Möglichkeit erst erschlossen auf der Ebene Mathematik zu machen.

schrotti12 schrieb:
Erstens leidet darunter die Fachkompetenz und zweitens der eigene Wille Neues zu lernen.
Bin mir nicht sicher, ob das wirklich so ist. Hieß ja früher auch: Die Schüler lernen nicht mehr rechnen, sondern tippen nur noch die Sachen in den Taschenrechner rein.
Schule ist auch oft schlecht darin, neue Technologien zu adaptieren.
Irgendwann kamen dann die grafischen Taschenrechner auf, die Funktionen zeichnen konnten und so. Und das was als Unterrichtsstoff üblich war, nämlich stupide irgendwelche Wertetabellen zu berechnen, um hinterher den Funktions-Graph zeichnen zu können, wurden damit ja im Prinzip obsolet. Was man dann gemacht hat, ist die Dinger zu verbieten.
Dabei hätten sie ein wertvolles Hilfsmittel sein können. Weil sie dann ermöglichen sich Funktionen explorativ zu nähern und einfach mal an den Parametern herum zu drehen und schauen, was sich am Graph ändert. Das wäre eine völlig neue Form der Anschauung und Wissensvermittlung gewesen.

Genauso wie Schule lange ja ihren Schwerpunkt auf Auswendiglernen gelegt hat. In Zeiten von Wikipedia sind die Schüler natürlich nicht mehr unbedingt dazu zu motivieren. Allerdings ist das ja auch die Chance, den Unterrichtsinhalt mehr auf Wissensanwendung zu verlagern. Weil zu unserer Zeit, wo wir noch viel auswendig lernen mussten, da kam das zu kurz. Da hatten wir zwar theoretisch viel wissen aber was man jetzt damit anfängt, das konnten die meisten nicht. Aber Wissensanwendung ist ja eigentlich der Effekt den man haben will.

Insofern sollte man da auch nicht immer nur Schwarz sehen, sondern es eher als Chance begreifen, die neue Möglichkeitsräume eröffnet. Das geht aber nur mit Veränderung.

schrotti12 schrieb:
Insofern würde ich KI erst verwenden, wenn ich mit der Materie vertraut bin.
Der Ansatz ist auf jeden Fall nicht verkehrt. Und nur da entfaltet sie auch ihre wirklichen Möglichkeiten. Wenn man sie nicht nur einfach alleine machen lässt, sondern sie quasi als Werkzeug/Partner verwendet.

schrotti12 schrieb:
am schluss kommt ein Setup raus, das genau das Spiel installiert, das ich haben will. Ich denke dass viele Entscheider noch genau dieses Mindset im Kopf haben und das jetzt halt über KI in eine trügerische Reichweite gekommen ist.
Ja. Viele Entscheider haben das im Kopf. Aber so funktioniert das natürlich nicht.
Nichtsdestotrotz kann das aber natürlich eine Unterstützung sein. Man kann schnell mal Dinge ausprobieren oder die KI kann mir den Boilerplateanteil abnehmen und ich als Programmierer hab dann mehr Zeit für das eigentliche programmieren.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben