Bitcoins der nächste Monsterhype steht bevor!
Die Rolle der Nodes solltest du dir nochmal anschauen. Sie validieren die Blöcke und es ist essentiell für Bitcoin. Nur wenn die Blöcke klein bleiben, kann Bitcoin sich global etablieren, da die Netzwerkanbindungen und die Rechner nur dann mitkommen.
Wenn Du das alles wegen der Blocksize zentral in ein paar Rechenzentren abwickelst, abwickeln musst, liegt die Kontrolle wieder in wenigen Händen. Das wäre das Ende von Bitcoin. Und eine ineffiziente Kopie von Visa.
@Nxt: Es bleibt spannend, bin auch erstmal bearish unterwegs.
Das Ziel eines Datenbanksystems ist IMMER die Datenmenge so klein wie nur möglich zu halten.
Das ist eigentlich schon das Grundprinzip, egal ob Dezentral oder Zentral.
Das Lightning Network ist genau dazu da die Datenmengen zu entlasten, das ist der RICHTIGE Weg, aber auch der Weg der einiges an Programmier Know How erfordert. Es sind neue Anforderungen, da gibts leider noch keine Codes die man sich im Web runterläd ein wenig verändert und dann bastelt man sich schnell eine Sidechain für Bitcoin, das ist alle neues Terain :-)
Ich programmiere seit über 20 Jahren und ich lade mir heute noch Codesnippets runter weil ich nicht ständig das Rad neu erfinden will ;-)
Wenn Lightning flächendeckend verwendet wird und die meisten Bitcoin Transaktionen sich eher im Mikrotransaktionsbereich statt finden, also alles über LN geht, könnten auch Überlegungen angestellt werden um die Blocksize wieder zu verkleinern, aber das wird man sehen ...
Eine Blocksizeerhöhung ist relativ einfach gemacht und geändert, aber das System wird dadurch langsamer und ws. irgendwann zum erliegen kommen und extrem zentralisiert werden.
Blocksizeerhöhung haben nur kurzfristige positive Effekte, das versucht auch BCash und deren Marketingabteilung für sich zu nutzen um kurzfristig viel Profit aus deren Coin zu quetschen.
BCash lügt quasi die Leute auch nicht an, aber es ist halt extrem kurzfristig nicht langfristig da unterscheiden sich Bitcoin und Bitcoin Cash.
Nicht eher: So klein wie möglich, so groß wie nötig?
Nichts gegen dich Motox aber wir sollten uns besser auf geteilte Meinungen einigen.
Moderation
Zeitpunkt: 23.09.18 00:34
Aktionen: Löschung des Beitrages, Nutzer-Sperre für 2 Tage
Kommentar: Spam - unterlassen Sie bitte die Spammerei im Börsenforum!
Zeitpunkt: 23.09.18 00:34
Aktionen: Löschung des Beitrages, Nutzer-Sperre für 2 Tage
Kommentar: Spam - unterlassen Sie bitte die Spammerei im Börsenforum!
Moderation
Zeitpunkt: 23.09.18 00:34
Aktion: Löschung des Beitrages
Kommentar: Spam - unterlassen Sie bitte die Spammerei im Börsenforum!
Zeitpunkt: 23.09.18 00:34
Aktion: Löschung des Beitrages
Kommentar: Spam - unterlassen Sie bitte die Spammerei im Börsenforum!
Fullnodes die nicht im Miningmodus arbeiten prüfen nur die empfangenen Daten auf Richtigkeit und geben diese an weitere Nodes weiter die diese noch nicht kennen, einfach erklärt.
Die Dezentralität baut auf den Nodes und nicht auf den Minern auf. Die Nodes validieren quasi nur die Blöcke und die darin enthaltenen TRA und geben diese ans Netzwerk weiter. Umso mehr Nodes bestehen umso dezentraler sind die Daten und umso schwieriger wird es diese zu verändern.
Die Problematik ist, das diese empfangen, validieren und weitergeben unglaublich viel Bandbreite verbraucht. Umso größer die Blöcke sind, umso mehr Bandbreite wird benötigt. Wenn jetzt Nodes mit einer kleinen Bandbreite TRA validieren verlangsamt dies das Netzwerk.
Bei einer größeren Blocksize können viele Nodes nicht mehr Effizienz arbeiten, das Netzwerk wird zentraler und die Sicherheit schwindet.
Das war jetzt mal sehr rudimentär aus dem hohlen Kopf raus erklärt.
Du sagst 'Umso mehr Nodes bestehen umso dezentraler sind die Daten und umso schwieriger wird es diese zu verändern.' Da gebe ich dir recht, aber angenommen, die Nodes sind auf ~10000 verschiedenen Rechnern oder Clouds verteilt, geht die Wahrscheinlichkeit, alle gleichzeitig und einheitlich zu manipulieren gegen Null. Da ist es fast schon wahrscheinlicher, das sich die drei größten Miningpools zusammentun und damit drohen, die Leistung bei Block 1/2016 geschlossen vom Netz zu nehmen.
Denkst du denn, das die ausschließliche Off Chain Skalierung zielführend ist? Wie gesagt, ich kann die Argumentation der Cores verstehen, das eine Erhöhung der Blocksize insgesamt auch die Validierung verlangsamt. Warum jetzt aber alles größer 1MB zu groß sein soll würde ich gerne verstehen? Das Whitepaper des BTC wird fast wie die Bibel gehandhabt, das stört mich an der Geschichte.
Desweiteren sind die Nodes im Moment eine Investition ins Netzwerk die nur Kosten aufwirft und keinen Ertrag bringt. Sprich die Nodebetreiber machen dies aus Überzeugung.
Ich persönlich kann mir gut vorstellen, das secondlayer Lösungen entwickelt und es zukünftig hybride Lösungen geben wird. Ob Lightning dieses Problem löst oder ob es andere Lösungen geben wird, wird man sehen.
Auch Segwit kann genutzt werden, wie Gebrauchsgut bereits geschrieben hat, können mehr TRA durch Trennung der digitalen Signatur in einen Block aufgenommen werden.
Man darf auch nicht vergessen, das wir uns bei der Blockchaintechnologie und den Kryptoassets noch ganz am Anfang befinden. Die Lösungen müssen erst noch entwickelt werden und Vertrauen aufbauen. Dies benötigt Zeit
Vielleicht werden deren Mitarbeiter bereits ab 2020 nur noch mit Gold bezahlt? ;-)
Möglich ist schon vieles!
Da Bitcoin deflationär ist und das Interesse steigt und man generell Gewinne erwirtschaften möchte als Miner, kann der Marktpreis natürlich um ein vielfaches höher liegen, derzeit wird er +-0 gehandelt, global gesehen keine Gewinnmargen, deswegen die hohe Liquidität in Bodennähe, man kauft gern günstig ein wenn etwas zu Herstellungskosten verscherbelt wird, Schnäppchenjäger :-)
Der Chart und die fundermentalen Daten stimmen überein, deswegen auch der starke Boden diese reflektiert die "Herstellungskosten" der Mindespreis am Markt, billiger wird es nicht werden, wenn in einem extrem kurzfristigen Rahmen dass sich mit hohem Volumen nach oben hin auflösen wird.