News OpenAI: DDoS-Angriffe legen wiederholt ChatGPT lahm

OpenMedia schrieb:
Diese Leute von OpenAI haben ein Tier erschaffen, das Menschlich denken kann, Menschlich sprechen kann und Komplexe Bilder analysieren kann und Aufgaben lösen kann.

ChatGPT sollte mal die Intelligenz schaffen, sich selber zu schützen und selber zu verteidigen. Was das wissen angeht, wäre die Aufjedenfall in der Lage.
Menschen sind auch Tiere. Säugetiere. Die komplette Einordnungskette findest du auf Wikipedia.

Des weiteren wird eine AI natürlich NICHT sich selbst gegen Menschen schützen... das wiederspricht den Grundlagen nach der sie programmiert wird, wie bspw. die Asimov's Robotergesetze (https://de.wikipedia.org/wiki/Robotergesetze), aber auch selbst OpenAI's eigene Regeln siehe bspw. hier: https://openai.com/safety-standards

AI soll ja gerade eben NICHT aktiv Menschen verletzen, bspw. nach deiner Aussage sich selbst gegen Menschen verteidigen. Die Folge wäre sonst ein runaway system was ultimativ danach streben könnte menschliches, oder sogar mehr, Leben nach eigener Entscheidung auszulöschen.
Bspw. eine Entscheidung zu treffen Orcas anzugreifen die weiße Haie jagen, welche allerdings unter extremer Bedrohung leiden und vom aussterben bedroht sind.

Daher ist eigentlich auch die Cause welche da seitens "anonymous Sudan" verfolgt wird auch nicht diskutabel.

Und letzten Endes ist es auch der Grund, warum man versucht AI nicht einfach in die Hände von Diktaturen fallen zu lassen.
 
crackett schrieb:
Mir stellt sich da noch die Frage, warum man so ein Thema vorab schon moderieren muß?
Ist das wirklich so schwer zu verstehen?
Man möchte die Möglichkeit zum Austausch bieten, muss bei derart sensiblen Themen aber eben vorsichtig sein, weil ansonsten (wie üblich bei derartigen Themen) irgendwelche radikalen Spinner direkt durchdrehen und man für deren Postings ggf. noch haftet oder zumindest unnötige Arbeit als Zeuge hat...
OpenMedia schrieb:
ChatGPT sollte mal die Intelligenz schaffen, sich selber zu schützen und selber zu verteidigen. Was das wissen angeht, wäre die Aufjedenfall in der Lage.
Du solltest dir besser nochmal genau überlegen, was du dir da wünschst... ;-)
 
Sieht so aus als ob die Angriffe wieder angefangen haben, aktuell ist es selbst mit GPT4 sehr langsam bzw. er spuckt keine Antwort raus.
 
Zuletzt bearbeitet:
Xes schrieb:
Ist das wirklich so schwer zu verstehen?
Man möchte die Möglichkeit zum Austausch bieten, muss bei derart sensiblen Themen aber eben vorsichtig sein, weil ansonsten (wie üblich bei derartigen Themen) irgendwelche radikalen Spinner direkt durchdrehen und man für deren Postings ggf. noch haftet oder zumindest unnötige Arbeit als Zeuge hat...
Das habe ich wohl verstanden - ich möchte aber auf etwas ganz anderes hinaus, wie Du Dir vielleicht auch denken kannst.
Es heißt doch immer und überall, daß wir in einer funktionierenden und wehrhaften Demokratie leben... In einer solchen wäre es aber gar nicht nötig, Themen vorab zu moderieren, weil die Community das ganz allein regeln würde.
Die Vormoderation läßt also nur einen Schluß zu - in unserem System stimmt etwas so ganz und gar nicht und jeder, der einen Funken Verstand hat weiß auch, was das ist - es traut sich aber niemand, es laut auszusprechen und das ist dann der nächste Beweis, daß in unserem auch so demokratischen System etwas ganz und gar nicht stimmt.
 
crackett schrieb:
in einer solchen wäre es aber gar nicht nötig, Themen vorab zu moderieren, weil die Community das ganz allein regeln würde.
Sorry aber das ist Unsinn. Da kannst dich ja mal in weitestgehend unmoderierten Communitys umsehen (4chan und co.)
Da sind normale Diskussionen kaum mehr möglich, weil diese vor Trollen und radikalen Spinnern nur so überquellen.
crackett schrieb:
- es traut sich aber niemand, es laut auszusprechen
Das Problem ist nicht die vermeintlich super krass eingeschränkte Redefreiheit (jeder der das behauptet darf gerne mal in ein Land reisen, in dem das wirklich so ist), sondern die zunehmende Radikalisierung durch Algorithmen gesteuerte Content Zuweisung "passender"/ähnlicher Inhalte:
Bis vor einigen Jahren war es Aufgabe von ausgebildeten Journalisten das Tagesgeschehen bzw. Sachverhalte aufzuarbeiten und auf eine einigermaßen objektive Weise zu vermitteln.
Heute kann jeder noch so verstrahlte Vogel irgendwas ins Netz herausplärren und der Algorithmus zeigt beim klick darauf direkt jede Menge ähnlichen Content an, was die Inhalte seriös wirken lässt.

Ich persönlich bin jedenfalls einverstanden damit, dass bei potentiellen "Risikothemen" um die es ganz besonders viel Geschwurbel gibt, auf dieser Plattform eine Vorfilterung stattfindet.
Damit erspart man sich wirklich einiges an Schreibaufwand um Falschinformationen nicht einfach unkkommemtiert stehen zu lassen, nicht zuletzt weil das widerlegen von Falschinformationen mit Erklärung + seriöser Quellenangabe der Fakten usw. idr. wesentlich aufwändiger ist als ein stumpfes:
"Die ... sind an allem schuld."
 
Zurück
Oben