GELD … BITCOIN

Zum Verständnis der 51% Attacke: Das wird doch 49% des Netzwerks auffallen?

D.h. es wird einen Fork der Blockchain von den 49% des Netzwerks geben, welcher auf der letzten gültigen Transaktion basiert.

Natürlich könnte der Angreifer der 51% seine Coins zwischenzeitlich schon in FIAT umwandeln oder auf andere Chains bridgen. Die 51% Attacke würde zwar in Chaos enden wäre aber nicht der Totalverlust?
 
Natürlich ist das Rechnen und der Umgang mit Wahrscheinlichkeiten nicht "natürlich" für einen Menschen.
Deshalb denkst du ja auch dass man eine Wahrscheinlichkeit von <1.0 zu 1.0 "runden" kann.
Ergänzung ()

x.treme schrieb:
Zum Verständnis der 51% Attacke: Das wird doch 49% dem Netzwerk auffallen?
Ja. Bei sowas könnten die "verteidiger" mehr Rechenleistung zuschalten um an der "richtigen" Kette mehr zu rechnen. Ist aber meines Wissens nach ein theoretisches Beispiel was so nie bei Bitcoin passiert ist.
Ergänzung ()

Das Runden ist auch ein Problem in einer naiven(einfachen) Computer Implementation mittels Floating Point reelen Zahlen bei dem Umgang mit kleinen/großen Wahrscheinlichkeiten. Deshalb nutzt man da auch in der Regel den logarithmus. Dann addiert man anstatt zu multiplizieren, etc.
 
Zuletzt bearbeitet:
Quonux schrieb:
Naja einige Services von Banken wird es weiterhin geben, zum Beispiel die Beratung von Oma.
Was glaubst du den wie ertragreich so eine Beratung einer Oma ist?
Ist dir auch noch nicht aufgefallen das zunehmend Filialen schliessen und Endkunden ins Internet an automatisierte Abläufe gewöhnt als auch dahin verschoben werden?

Mein Eindruck ist, die gewieften Haie ziehen inzwischen die naiv-gutgläubigen Armlehnen-Experten ab. Kann mich natürlich täuschen jetzt, vielleicht ist es auch andersrum.😂
 
Quonux schrieb:
ich gebe NFT1.0 noch 15 Jahre zum ausreifen bis es für was genutzt wird was relativ sinnvoll ist.
Du hat es geschafft, mich mehrmals zu zitieren, aber hast den wesentlichen Inhalt meines Beitrag komplett ignoriert.
Quonux schrieb:
Doch es ist unendlich größer, weil du nie von 0.99999999999999999999999999999975972850982267482972478 zu 1.0 kommst, egal wie oft du ein probabilistisches Update durchführst (dabei ist es egal wie das update genau berechnet wird).
Du meinst durchaus das richtige, aber dein Begrifflichkeit ist wie hier schon jemand schrieb nicht korrekt. 1,0 ist nicht unendlich mal größer als 0,9995. Es ist aber natürlich richtig, dass die Wahrscheinlichkeit gegen 1,0 konvergiert, diese aber nicht erreicht. Das ist für praktische Überlegungen aber komplett bedeutungslos.
x.treme schrieb:
D.h. es wird einen Fork der Blockchain von den 49% des Netzwerks geben, welcher auf der letzten gültigen Transaktion basiert.
Schon die Terminologie ist problematisch. Es kann keine "Angriffe" auf das Konsensverfahren geben im engeren Sinne. Der Konsens entscheidet, was wahr ist. Alle Blockchains sind erst einmal gleichgestellt. Ist Ethereum oder Ethereum Classic das originale Etherium? Das lässt sich letztendlich nicht entscheiden, aber die "Mehrheit" (außerhalb der Blockchain) hat sich dafür entschieden, die Manipulation, welche den DAO Hack rückabwickelt als "Original Ethereum" zu akzeptieren. Hier sieht man auch, wieso solche Spitzfindigkeiten eine große Rolle spielen. Siehe auch BIP-119, das mochten die Core-Entwickler gar nicht, dass jemand an denen vorbei programmiert und ohne sie als Gatekeeper als Vorschlag einbringt.
 
Quonux schrieb:
Doch es ist unendlich größer, weil du nie von 0.99999999999999999999999999999975972850982267482972478 zu 1.0 kommst, egal wie oft du ein probabilistisches Update durchführst (dabei ist es egal wie das update genau berechnet wird).
Du vermischt hier gerade Dinge, von denen du offensichtlich keine Ahnung hast.
Es geht in den von dir verlinkten Fragen um etwas VOLLKOMMEN Anderes, nämlich um die Aktualisierung von Schätzern in bestimmten Statistikmodellen. Bitte, erzähle doch nicht einfach irgendeinen Bullshit. Natürlich kann man bei entsprechend gewählten Verteilungen eine Prior-Wahrscheinlichkeit von 0.99 zu einer Posterior-Wahrscheinlichkeit von 1 gelangen.
Was natürlich nicht geht: Von einem Prior von 0 zu einem Posterior von >0 zu kommen.
Hier geht es aber nicht um Prior oder Posterior. Wir updaten keine Wahrscheinlichkeit und wir betreiben auch keine statistische Analyse. Es geht einfach um elementare Stochastik. Also wirf doch bitte nicht mit Dingen um dich, die du nicht mal verstehst.

Quonux schrieb:
Blöd nur dass man Analysis nicht beliebig mit Wahrscheinlichkeits-Logik https://en.wikipedia.org/wiki/Probabilistic_logic vermengen kann, sonst wird halt eine Wahrschenlichkeit von 1.0 minus 1.5992e15 zu 1.0, was kompletter Unsinn ist.
Wahrscheinlichkeitslogik ist ein philosophischer Begriff, der sich um die Interpretation dreht. In der Wahrscheinlichkeitstheorie (probability theory) werden sehr wohl Grenzwerte in bestimmten Fällen betrachtet. Die Interpretation von Wahrscheinlichkeiten kannst du natürlich immer diskutieren, die Mathematik dahinter nicht. Du hast aber behauptet, meine Aussage wäre mathematisch falsch. Ist sie aber nicht.

Quonux schrieb:
Wahrscheinlichkeit 1.0 heißt dass es immer so ist, ohne Unsicherheit.
Wahrscheinlichkeit 0.0 heißt dass es nie so ist, ohne Unsicherheit.
Alle Wahrscheinlichkeiten dazwischen haben eine Unsicherheit.
Und hier liegt du wieder herrlich falsch. Die Maßtheorie ist da leider etwas unintuitiv, aber eindeutig.
Ein Ereignis mit Wahrscheinlichkeit 1 heißt "fast sicher". Und mit Wahrscheinlichkeit 0 hieße es "fast unmöglich". Schau mal hier: https://de.m.wikipedia.org/wiki/Fast_sicher

Dort wird auch eine recht eingängliche Erklärung dafür gegeben. Wenn du eine Zahl gleichverteilt aus dem reellwertigen Intervall [0,1], dann ist die Wahrscheinlichkeit, die Zahl 0.4728 zu ziehen, exakt 0, denn es gibt überabzählbar unendlich viele mögliche Ausgänge dieses Experiments. Das gilt natürlich genauso für jede andere Zahl. Nun wirst du aber, nachdem du das Experiment gemacht hast, irgendeinen Zahl ziehen, obwohl diese Wahrscheinlichkeit exakt 0 hatte. Und da wird nicht gerundet oder so.
 
  • Gefällt mir
Reaktionen: BeBur
BeBur schrieb:
Das ist für praktische Überlegungen aber komplett bedeutungslos.
Vielleicht wenn du nur deinen Kaffee kaufst, aber nicht wenn du ne milliarde überweist.
Kann man beides mit Bitcoin machen und wurde beides getan.
Hier ein Tipp: wenn ich eine Millarde mit einer Wahrscheinlichkeit von 1% multipliziere habe ich ein (Rest)-Risiko von 10 Millionen! Das ist nur für irrationale Entitäten "komplett bedeutungslos".

BeBur schrieb:
1,0 ist nicht unendlich mal größer als 0,9995.
Doch ist es, schon mal weil ich geschrieben habe dass es bei 1.0 und 0.0 keine Ungewissheit gibt (per Definition), bei <1.0 und >0.0 jedoch schon.
Du kommst nie durch updates von dem Raum zwischen 0.0 und 1.0 nach den Wert 0.0 oder 1.0!
Außerdem, siehe dem Würfelbeispiel unten für Stochastik.

Web-Schecki schrieb:
Es geht einfach um elementare Stochastik.
Selbst da kommst du nicht auf 100% (1.0), siehe Beitrag von mir. Ich warte immernoch auf die Rechnung wie du auf Wahrscheinlichkeit 1.0 kommst dass eine Kette vom Angreifer mit Rechenkraft X die längere ist. Gibt es nicht!

Web-Schecki schrieb:
Es geht in den von dir verlinkten Fragen um etwas VOLLKOMMEN Anderes, nämlich um die Aktualisierung von Schätzern in bestimmten Statistikmodellen.
Ja es ist was anderes, das ändert nichts daran das 1.0 eben nicht das gleiche ist wie 1.0-1.42e-10 . Das gilt überall in der Wahrscheinlichkeitstheorie, auch in der Stochastik.
Ich kann nie eine Zahl 7 würfeln auf einem Würfel der die Zahlen 1,2,3,4,5,6 hat, weil die Wahrscheinlichkeit 0.0 ist.
Das ist was völlig anderes wenn ich die Zahl 6 auf einem Würfel mit den Zahlen 1,2,3,4,5,6 mit einer Wahrscheinlichkeit von 1.0-1.42e-10 würfeln kann.
Da hilft auch kein "runden".

Web-Schecki schrieb:
Ein Ereignis mit Wahrscheinlichkeit 1 heißt "fast sicher". Und mit Wahrscheinlichkeit 0 hieße es "fast unmöglich". Schau mal hier: https://de.m.wikipedia.org/wiki/Fast_sicher
Das sind Eigennahmen. Ändert nichts an den Zusammenhängen.

Web-Schecki schrieb:
Wenn du eine Zahl gleichverteilt aus dem reellwertigen Intervall [0,1], dann ist die Wahrscheinlichkeit, die Zahl 0.4728 zu ziehen, exakt 0, denn es gibt überabzählbar unendlich viele mögliche Ausgänge dieses Experiments. Das gilt natürlich genauso für jede andere Zahl. Nun wirst du aber, nachdem du das Experiment gemacht hast, irgendeinen Zahl ziehen, obwohl diese Wahrscheinlichkeit exakt 0 hatte. Und da wird nicht gerundet oder so.
Das ist Stochastik.

Web-Schecki schrieb:
Also wirf doch bitte nicht mit Dingen um dich, die du nicht mal verstehst.
Was auch immer.
Dann ist mir auch egal ob du glaubst dass 1.0 das gleiche ist wie 1.0-1.42e-10
Ergänzung ()

BeBur schrieb:
Mit Angriff ist bei Bitcoin generell das wirken einer böswilligen Entität gemeint. Dabei sind die Details komplett egal. Hier ging es um die 51% Attacke (also mehr als 50% der Rechenleistung).
Ergänzung ()

BeBur schrieb:
Schon die Terminologie ist problematisch.
Nein ist es nicht weil jeder das so nennt.
 
Zuletzt bearbeitet:
Deine Weigerung, dich mit von deinen Überzeugungen abweichenden Informationen auseinander zu setzen ist schon beeindruckend.
 
  • Gefällt mir
Reaktionen: florian., sedot und Web-Schecki
BeBur schrieb:
Ist Ethereum oder Ethereum Classic das originale Etherium?
Komplett irrelevant weil es hier um Bitcoin BTC geht, nicht um ETH oder BCH oder sonstige shitcoins.
 
Quonux schrieb:
Dann ist mir auch egal ob du glaubst dass 1.0 das gleiche ist wie 1.0-1.42e-10
Uuund der Strohmann kommt zuverlässig, wenn die Argumente ausgehen :D
Habe nie behauptet, dass diese zwei Zahlen gleich sind.
Ich habe gesagt, man darf auch Wahrscheinlichkeiten runden. Wie man alle Zahlen runden darf. Wer will das auch verbieten? Damit einhergehend ist halt ein Genauigkeitsverlust, wenn du durch das Runden eine andere Zahl herauskommt. Doch die Wahrscheinlichkeit, irgendwann eine längere Kette berechnet zu haben, wenn man dauerhaft mehr als 50% der Rechenleistung hat, ist eben genau 1. Nicht 1.0 - epsilon, nicht 1.0 - 1.42e-10. Genau 1. Und entsprechend ändert sich da nix, egal, ob man rundet oder nicht.
Quonux schrieb:
Das ist Stochastik.
Eben.

Quonux schrieb:
überall in der Wahrscheinlichkeitstheorie, auch in der Stochastik.
Stoachstik ist der Überbegriff für Wahrscheinlichkeitstheorie und Statistik...

Quonux schrieb:
Doch ist es, schon mal weil ich geschrieben habe dass es bei 1.0 und 0.0 keine Ungewissheit gibt (per Definition), bei <1.0 und >0.0 jedoch schon.
Nein, siehe meine Erklärungen zu "fast sicher". Du kannst trotz Wahrscheinlichkeit 1 oder 0 Unsicherheiten haben. Der Eigenname "fast sicher" hat eine Bedeutung und ist nicht willkürlich gewählt.
 
Web-Schecki schrieb:
Du kannst trotz Wahrscheinlichkeit 1 oder 0 Unsicherheiten haben.
Oh je oh je. Also das schlägt dem Fass den Boden aus.
 
Quonux schrieb:
Oh je oh je. Also das schlägt dem Fass den Boden aus.
#505 nochmal lesen, dann den verlinkten Wikipediaartikel. Wie gesagt, anfangs ist es für viele etwas verwirrend, aber ich bin mir sicher, du kannst es trotzdem irgendwann verstehen :)
Ich drück dir die Daumen!
 
  • Gefällt mir
Reaktionen: BeBur
Web-Schecki schrieb:
Doch die Wahrscheinlichkeit, irgendwann eine längere Kette berechnet zu haben, wenn man dauerhaft mehr als 50% der Rechenleistung hat, ist eben genau 1. Nicht 1.0 - epsilon, nicht 1.0 - 1.42e-10. Genau 1.
Ja auch wenn man 10000000000000000 mal mehr Rechenleistung als der Rest hat. Das glaubst du doch selber nicht.
Naja soll das Internet drüber entscheiden wer hier Recht hat. Die anderen sind hoffentlich schlauer als wir ;) .
 
SE. schrieb:
Wurde diese Behauptung auch mal mit schriftlich Fakten untermauert?
Hier wurde angeblich mal mit echten Zahlen und Fakten gearbeitet und analysiert.

https://blog.coinshares.com/everyth...ing-and-the-environment-is-wrong-585931a486e5

ich weiß - ich weiß - aber wenn sich kein anderer dazu im Stande fühlt dieses mal zu belegen.

Auch hier nochmal beschrieben - hatte ja den Link schonmal angegeben
https://hackernoon.com/the-reports-of-bitcoin-environmental-damage-are-garbage-5a93d32c2d7
auch wenn das Webdesign nervig ist.
 
  • Gefällt mir
Reaktionen: fudelnotze
Contrary to what detractors are trying to claim, Bitcoin uses only approximately 0.05% of global annual energy.
Diese blöde Umweltsau, was fällt der ein in relation so viel wie eine LED an einem Computer zu verbrauchen!
 
  • Gefällt mir
Reaktionen: fudelnotze
Andy8891 schrieb:
Ich hatte dies bereits früher angemerkt, das diese Berechnung aus der Aktienwelt übernommen wurde, obwohl diese nichtmal annäherend die gleiche Aussagekraft in der Cryptowelt hat.

Das heutzutage Unternehmenswert ungleich Aktienwert eher die Regel als die Ausnahme darstellt, sollte nicht als faule Ausrede genutzt werden.
Bzgl. Marketcap.
Da wurde es ja so dargestellt als sei das alles quasi frei erfunden. Eben eine Luftnummer.
Und das ist es nicht, es ergibt sich aus der Mathematik.

Das die Marketcap ansonsten keine grosse Aussagekraft über qualitative Eigenschaften hat ist bekannt.
Daher schaut jeder auf das 24h Volumen welches eine bessere Aussage ist. Das verschieben von A nach B wie du es nennst. Oder eben simples traden von Coins, auf welche Weise auch immer. Washtrading mal aussen vor.

Ein Marketcap kann 98672492 Fantastilliarden betragen. Aber bei einem Volumen von 5 Dollar ist das dann halt mal doch ein Schuss in den Ofen.
 
an - dy schrieb:
Hier wurde angeblich mal mit echten Zahlen und Fakten gearbeitet und analysiert.
Ist der Author er hier?
E7253B5D-C548-4034-BC55-D7FFFF7934FB.jpeg
an - dy schrieb:
ich weiß - ich weiß - aber wenn sich kein anderer dazu im Stande fühlt dieses mal zu belegen.
Dann sag halt an das dir Informationen fehlen, du aber auch nicht den dir vorgelegten traust. Ist das so schwer? 🙄
an - dy schrieb:
hatte ja den Link schonmal angegeben
les ich noch.
 
  • Gefällt mir
Reaktionen: an - dy
Quonux schrieb:
Das glaubst du doch selber nicht.
Mathematik hat wenig mit Glauben zu tun ;)

Unendlichkeit ist halt ein verwirrendes Konzept, aber man kann relativ überlegen, dass es kein epsilon > 0 geben kann, sodass die Wahrscheinlichkeit des diskutierten Ereignisses für jede beliebige Zeitspanne höchstens 1 - epsilon beträgt. Denn wenn die Zeitspanne vergrößert wird, steigt (bei >50% Rechenleistung) die Wahrscheinlichkeit strikt an, dass das Ereignis wahr ist. Daraus folgt aber schon, dass die Wahrscheinlichkeit nicht durch 1 - epsilon beschränkt sein kann, denn mit einer Erhöhung der Zeitspanne erhöht man auch die Wahrscheinlichkeit. Folglich kann es kein derartiges epsilon geben. Die Wahrscheinlichkeit muss also exakt 1 sein.

Es ist vielleicht auf den ersten Blick verwirrend, aber für Leute, die ein bisschen was mit Mathe am Hut haben, absolut trivial, echt. Die Webseite hast du selbst verlinkt, und die sind zum gleichen Ergebnis kommen.
Wenn du mir nicht glaubst, dann versuche gerne, ein passendes epsilon zu finden und die Wahrscheinlichkeit zu begrenzen. Aber denke daran, dass die Zeitspanne beliebig groß werden darf ("irgendwann").
 
Ich habe 1.0-1.5e-10 geschrieben um nicht 0.999999999999blabla schreiben zu müssen. Das hat nichts mit epsilon zu tun.
Web-Schecki schrieb:
Mathematik hat wenig mit Glauben zu tun ;)
Ja schon klar. Ich denke immernoch dass deine Lösung nicht richtig ist, liegt vielleicht auch daran dass >50% der Rechenleistung auch unrealistische Szenarien beinhaltet wo ein Angreifer 1e15 mal so viel Rechenleisung hat.
Aber lassen wir das, jeder rechnet hier anders.
Ergänzung ()

Web-Schecki schrieb:
Folglich kann es kein derartiges epsilon geben.
Und genau da versagt deine Rechnung weil es immer einen Angreifer mit 1e12 mal so viel Rechenleistung geben kann um die Letzten drölfhundert Blöcke umzuschreiben. Es geht bei einem Angriff immer um die letzten Blöcke, nie um die Blöcke gegen eine unendliche Blocktiefe wie du es animmst. Da zerlegt es deinen komischen Beweis.

Natürlich kannst du auch annehmen dass es sowas nicht gibt, dann kann man auch wie du auf 1.0 kommen.
Und genau das wurde auch im verklinkten Wiki Artikel getan.
 
Zuletzt bearbeitet:
Quonux schrieb:
Ich habe 1.0-1.5e-10 geschrieben um nicht 0.999999999999blabla schreiben zu müssen. Das hat nichts mit epsilon zu tun.
Das ändert nichts, jede reelle Zahl kleiner 1 lässt sich als 1 - epsilon mit reellem epsilon > 0 darstellen.

Quonux schrieb:
liegt vielleicht auch daran dass >50% der Rechenleistung auch unrealistische Szenarien beinhaltet wo ein Angreifer 1e15 mal so viel Rechenleisung hat.
Das ist für die Mathematik dahinter aber vollkommen irrelevant. Es müssen nur strikt mehr als 50% sein. Natürlich ist "irgendwann" unterschiedlich schnell erreicht.

Quonux schrieb:
Aber lassen wir das, jeder rechnet hier anders
Naja, es gibt hier schon eine eindeutige Antwort.
Dass es nicht ganz einfach zu verstehen ist, ist mir aber schon klar.
 
Web-Schecki schrieb:
absolut trivial, echt.
Nein ist es nicht, sonst hätten wir diese Diskussion nicht, auch wenn die Formel einfach ist, siehe https://www.computerbase.de/forum/threads/geld-bitcoin.2085377/post-26994512
Ergänzung ()

Web-Schecki schrieb:
Natürlich ist "irgendwann" unterschiedlich schnell erreicht.
Was keinen Sinn macht wenn man betrachtet wie viele Blöcke man umschreiben kann wenn man X Rechenleistung hat (X bestimmt die maximale Tiefe).
Während du von beliebiger tiefe ausgehst, aber darüber rede ich nicht und das ist auch nicht relevant für eine Attacke!
 
Zurück
Oben