Alla språk
DataBroker DAO är den första marknadsplatsen för att köpa och sälja sensordata. Som en decentraliserad marknadsplats för IoT-sensordata med blockkedjeteknik, gör Databroker DAO det möjligt för sensorägare att konvertera IoT-sensordata med blockkedjeteknik till genererad data, Databroker DAO gör det möjligt för sensorägare att konvertera genererad data till en inkomstström. Detta kommer att öppna upp en mängd möjligheter inom olika branscher. Data kommer att användas och göras mer effektiva. DTX-token är ett verktygstoken på Databroker DAO-plattformen. DTX är en ERC20-kompatibel token med 18 decimaler. Token kommer att fungera som valuta för att köpa och sälja sensordata på plattformen.
På DataBroker DAO-plattformen måste dataköparen spendera token DTX för att få data, dataleverantören får 80 % av DTX, telekomföretaget får 10 % och DataBroker DAO-plattformen kommer att få 10%. På så sätt får köparen enkelt de uppgifter som krävs, samtidigt som leverantören och tjänsteparten får motsvarande belöningar.
För närvarande är smart city en av DataBroker DAOs mest berörda riktningar, och de förhandlar om samarbete med Dubais regering. Dubais regering vill förbättra invånarnas lycka genom smarta städer. Genom DataBroker DAO-plattformen kan Dubais regering enkelt få den data den behöver. En annan riktning är smarta gårdar. Jordbrukare samlar in sensordata, vilket kan öka produktiviteten med 2% till 3% varje år, och kan även sälja sensordata genom DataBroker DAO för att få ytterligare inkomster.
Tack vare det bästa utvecklingsteamet och de rika branschresurserna främjar DataBroker DAO snabbt genomförandet av projekt Fler och fler sensortillverkare väljer att gå med i DataBroker DAO, och ekologin utvecklas snabbt. Som ett enhörningsföretag inom det uppdelade området för handel med sensordata, har DataBroker DAO framgångsrikt utnyttjat branschmöjligheterna. Med den snabba iterationen av blockkedjans underliggande teknologi, är DataBroker DAO skyldig att inleda explosiv utveckling!
Token-vägledd registrering för hantering av rykte, kvalitet och innehåll
En kärnkomponent i plattformen är registreringen av sensorer och dataströmmar/filer som görs tillgängliga på plattformen. I DataStreamRegistry kommer vi att lagra alla dataresurser som tillhandahåller strömmande sensordata.
Strömmad data kan vara realtidsdata från en IoT-sensor. Denna data säljs efter tidsintervall. Ett DataSetRegistry kommer att hålla "filer" med data som kan köpas; dessa data säljs som nedladdningar.
För att lista en stream/uppsättning i en sådan registrering måste ägaren inneha (i detta fall skicka/skicka/låsa) en viss mängd DTX-tokens. Dessa tokens är låsta av datasäljare som en garanti för god tro.
Det kommer att finnas minimikrav för innehav för att vara permanent listad i registret. Datasäljare kan hålla fler DTX-tokens om de vill. Ju fler tokens som hålls, desto mer framträdande visas dessa dataströmmar/uppsättningar i listan (som sortering eller ytterligare märken i gränssnittet), vilket ökar chanserna att bli köpta och ökar samtidigt garantin för köparen att datakvaliteten är hög och innehåller informationen som beskrivs i kampanjen.
Köpare som inte är nöjda med kvaliteten på data kan utmana posterna i registret genom att hålla några DTX-tokens. Denna utmaning kommer att återspeglas som ett negativt ryktepoäng i användargränssnittet för alla potentiella köpare. I sig kommer det inte att ha någon inverkan på försäljningen av data.
När en viss tröskel för förhör uppnås kommer DataBroker DAO-administratören att utföra en verifieringsoperation på dataleverantören. Om det upptäcks att det finns ett problem i den annonserade datan, kommer tokens den innehar att fördelas lika till alla tvivlare och DataBroker DAO-plattformsplånboken. Posten raderas sedan från posten. Om uppgifterna bedöms vara tillförlitliga distribueras utmanarens tokens till datasäljaren och plattformen.
Identitetshantering för 1 miljard sensorägare
Databroker DAO är en peer-to-peer-marknadsplats för IoT-sensordata. Denna data genereras av sensorer, och vi pratar om miljarder sensorer. Dessa sensorer ägs återigen av ett stort antal ägare. Dessa ägare har avtalat med nätverksoperatörer (de kan vara telekommunikationsföretag eller tillverkare) för att överföra data som genereras av deras sensorer till (främst nätverks-) gateways för användning.
Nätverksoperatörer tar på sig rollen som gatekeepers när det gäller dataflödet genom sina gateways. De har gått igenom alla nödvändiga KYC-procedurer på sensorägaren och har autentiserat och verifierat sensorn själva. De skyddar också sina nätverk från obehörig användning. Dessutom har nätoperatörer inom de flesta områden en monopolställning som resulterar i ett stort antal partners, men jämfört med antalet ägare eller sensorer har den minskat kraftigt.
När det gäller Databroker DAO är det en mycket fördelaktig lösning att samarbeta med dessa gateway-operatörer. Genom att kontrollera och autentisera gateway-operatörer får plattformen möjlighet att hantera och kontrollera ett stort antal sensorer genom proxyrättigheter.
Detta väcker frågan om att hantera identiteter för sensorer, ägare och operatörer på plattformen. Med hjälp av en lösning för slutanvändaridentitetshantering som uPort, fungerar plattformen under ett "reglerad identitetsproxy"-kontrakt. Dessa proxykontrakt innehåller länkar till sensorägares plånböcker och adresser. Till skillnad från slutanvändarlösningar är dessa proxykontrakt också knutna till ägarens identitet med gatewayoperatören och kan kontrolleras av gatewayadministratören.
Detta ger oss samma fulla ägande som sensorägare, kombinerat med möjligheten för gateway-operatörer att kontrollera/automatisera sin interaktion med systemet, och till och med möjligheten att hantera slutanvändares privata nycklar tills korrekta nyckelhanteringssystem är allmänt distribuerade. tills det blir populärt. Systemet kommer att vara öppen källkod innan den offentliga tokenförsäljningen.
dAPP och dAPI
Inom blockkedjeområdet byggs de flesta projekt på basis av distribuerade applikationer eller dAPPs. Dessa klientapplikationer interagerar direkt med Ethereum eller andra blockkedjor. I många fall kommer dessa applikationer att köras på avlägsna delade noder för framtida användarupplevelse, och även om detta är det enda sättet att skapa användarvänliga peer-to-peer-applikationer, har det allvarliga nackdelar för några av våra användningsfall:< br> ● Enskild felpunkt. Under några senaste tokenförsäljningar har klientapplikationer i kombination med hög efterfrågan fått dessa delade noder att gå ner. Inte för brist på prov eller skicklighet, utan på grund av det stora antalet PRC-samtal som krävs för att utföra specifika funktioner på Ethereums smarta kontrakt. I områden med hög insats är sådana misslyckanden oacceptabla.
● Webbgränssnittet och applikationerna är vackra, men det verkliga värdet ligger i API:et. I den nuvarande SaaS- och molnboomen är detta nästan något som tas för givet. Du har inte en riktig produkt om du inte också har ett API för den. Slack-, Zapier-, Github-, CRM- och ERP-system har alla sina framgångar delvis att tacka för hans engagemang för API:er.
● Ju fler program, desto fler problem. Att lägga till fler ytterligare gränssnitt till det kommer bara att göra det svårare för den genomsnittliga användaren att använda. Sensorägaren har skaffat ett konto hos transportören. De har lärt sig hur man använder dem och är glada (om de inte hade gjort det skulle de ha bytt operatör).
Det är därför vi har lagt till det vi kallar dAPI. Precis som dAPP är det en API-applikation som distribueras på varje nod. Den huvudsakliga användningen av denna dAPI sker från gateway-operatörer, dataprocessorer och stora dataköpare snarare än sensorägare eller småskaliga köpare. De kommer att använda den (standardiserade) anslutning som tillhandahålls av nätverksoperatören eller Databroker DAO dAPP.
Datadistribution och lagring
Miljarder sensorer genererar enorma mängder data. Därför har alla företag som använder IoT-sensordata sina egna system för att bearbeta dessa data och kommer sannolikt inte att vara benägna att ersätta sina system. Det betyder att vi inte kan tvinga dem att implementera ett nytt datalagringssystem. Dessutom är målet med plattformen inte att permanent lagra all IoT-sensordata.
Anslutningar inbyggda i dAPI integreras med ledande IoT- och stora datalagringsleverantörer, vilket gör att köpare kan välja vart de ska skicka sin data.
Det finns nu ett giltigt användningsfall för blockchain för att lagra sådan data. Funktionerna för oföränderlighet och tidsstämpel är värda att nämna. För att dra nytta av dessa funktioner kommer dAPI att lagra data på Ethereums huvudnät (med Chainpoint-specifikationen).
Relaterade länkar:
https://www.qukuaiwang.com.cn/news/6693.html
http://www.120btc.com/coin /1814.html
https://cloud.tencent.com/developer/news/248571
*Ovanstående innehåll är organiserat av YouToCoin-tjänstemannen. Om det skrivs ut igen, vänligen ange källan.