In den letzten zwei Tagen wurde ich ständig mit diesem @zerobase Ding konfrontiert, was ein bisschen nervig ist, aber ich muss zugeben, dass es tatsächlich auf einer der sensibelsten Linien des aktuellen Marktes steht – "Privatsphäre + Compliance + verifizierbare Berechnungen". Diese drei Punkte sind einzeln betrachtet nicht neu, aber es versucht, diese drei Dinge zusammenzuführen, und das wird interessant.
Zuerst zu meinem eigenen ersten Gefühl, ich bin mit Skepsis herangegangen, schließlich ist der ZK-Sektor bereits übertrieben, viele erzählen von zkVM, zkRollup, zkLogin und einer Menge Erzählungen. Aber nachdem ich einige Informationen durchgesehen habe, stellte ich fest, dass @zerobase eigentlich nicht im "Chain"-Bereich konkurriert, sondern eher im "Proof Layer". Einfach gesagt, es geht nicht darum, eine neue Blockchain zu erstellen, sondern ein Netzwerk zu schaffen, das dir hilft, Beweise zu generieren, wobei der Kern eine verteilte Berechnungsschicht für Zero-Knowledge-Proofs (ZK Proof) ist.
Diese Positionierung ist entscheidend, denn bei DeFi, RWA und sogar einigen institutionellen Anwendungen ist das größte Problem nicht, ob die Berechnungen durchgeführt werden können, sondern "nach der Berechnung, glaubst du mir?" Das, was Zerobase tut, ist – ich helfe dir zu rechnen und gebe dir gleichzeitig einen verifizierbaren Beweis, ohne Daten offenzulegen. Wenn das wirklich funktioniert, kann es tatsächlich in traditionelle Finanzszenarien integriert werden.
Schauen wir uns den Token $ZBT an, der im Wesentlichen der Treibstoff und Anreiz für dieses Netzwerk ist, um die Beweisgebühren zu bezahlen, Knotenpunkte zu betreiben und an der Governance teilzunehmen, und es gibt insgesamt 1 Milliarde Token mit einer klaren Verteilung und Anreizstruktur. Momentan sind etwa 220 Millionen im Umlauf, mit einer Marktkapitalisierung von über 10 Millionen Dollar, um ehrlich zu sein, das ist nicht teuer, aber auch nicht "unterbewertet", es ist eher eine Phase, in der der Markt gerade bewertet wird.
Ein Punkt, der mir wichtig ist, ist die Architektur – die Doppelstruktur aus Hub-Knoten und Prover-Knoten, einfach gesagt, es trennt "Scheduling" und "Rechenleistung". Diese Designstruktur ist theoretisch skalierbar, aber es gibt auch sehr reale Probleme: Werden die Knoten zentralisiert? Wird die Rechenleistung von großen Akteuren monopolisiert? Das ist etwas, das wir im Auge behalten müssen.
Ein weiterer Punkt, dem ich nicht ganz traue, ist, dass es ständig "Millisekunden-Beweise, niedrige Kosten" betont. Das klingt gut, aber bei ZK ist eine Leistungssteigerung oft mit Kosten verbunden, entweder durch Kompromisse bei der Sicherheit oder durch Hardwareabhängigkeit (TEE).

