Revolusi Berikutnya dalam Industri AI: Dari Daya Komputasi ke Revolusi Data
Kecerdasan Buatan ( AI ) model parameter skala melampaui triliun, daya komputasi diukur dalam triliunan kali per detik ( FLOPS ), sebuah hambatan inti yang diabaikan mulai muncul ke permukaan—data. Revolusi berikutnya dalam industri AI tidak lagi didorong oleh arsitektur model atau daya komputasi chip, tetapi tergantung pada bagaimana kita mengubah data perilaku manusia yang terfragmentasi menjadi modal yang dapat diverifikasi, terstruktur, dan siap AI. Wawasan ini tidak hanya mengungkapkan kontradiksi struktural dalam perkembangan AI saat ini, tetapi juga menggambarkan gambaran baru dari "Era DataFi"—di era ini, data tidak lagi menjadi produk sampingan teknologi, tetapi menjadi faktor produksi inti yang dapat diukur, diperdagangkan, dan ditingkatkan nilainya seperti listrik dan daya komputasi.
Dari Daya Komputasi Kompetisi ke Kelangkaan Data: Kontradiksi Struktural dalam Industri AI
Perkembangan AI selama ini didorong oleh "model-Daya Komputasi" sebagai inti ganda. Sejak revolusi pembelajaran mendalam, parameter model telah melonjak dari jutaan ( seperti AlexNet 2012 ) menjadi triliunan ( seperti GPT-4), dengan permintaan daya komputasi yang meningkat secara eksponensial. Biaya untuk melatih model bahasa besar yang canggih telah melebihi 100 juta dolar, di mana 90% digunakan untuk penyewaan kluster GPU. Namun, ketika industri memfokuskan perhatian pada "model yang lebih besar" dan "chip yang lebih cepat", krisis sisi pasokan data sedang datang dengan diam-diam.
"Data organik" yang dihasilkan manusia telah mencapai batas pertumbuhan. Sebagai contoh data teks, jumlah total teks berkualitas tinggi yang dapat di-crawl secara publik di internet, seperti buku, makalah, dan berita, adalah sekitar 10^12 kata, sementara pelatihan model dengan seratus miliar parameter memerlukan sekitar 10^13 kata tingkat data—ini berarti kolam data yang ada hanya dapat mendukung pelatihan 10 model dengan skala yang sama. Yang lebih serius, proporsi data duplikat dan konten berkualitas rendah melebihi 60%, yang lebih lanjut mengurangi pasokan data yang efektif. Ketika model mulai "menelan" data yang dihasilkannya sendiri seperti artikel yang ditulis AI dan gambar yang dihasilkan AI, "pencemaran data" yang menyebabkan penurunan kinerja model telah menjadi kekhawatiran dalam industri.
Akar dari kontradiksi ini terletak pada: industri AI telah lama memandang data sebagai "sumber daya gratis", bukan "aset strategis" yang perlu dibudidayakan dengan hati-hati. Model dan Daya Komputasi telah membentuk sistem pasar yang matang—Daya Komputasi dihargai berdasarkan FLOPS di platform cloud, model memiliki antarmuka API yang dikenakan biaya berdasarkan jumlah panggilan—tetapi produksi, pembersihan, verifikasi, dan perdagangan data masih berada di "zaman prasejarah". Sepuluh tahun berikutnya untuk AI akan menjadi "tahun infrastruktur data", dan data on-chain dari jaringan kripto adalah kunci untuk membuka kebuntuan ini.
Data On-Chain: "Database Perilaku Manusia" yang Paling Dibutuhkan AI
Dalam konteks kelangkaan data, data on-chain dari jaringan kripto menunjukkan nilai yang tak tergantikan. Dibandingkan dengan data internet tradisional seperti pos media sosial, komentar e-commerce (, data on-chain memiliki keaslian "penyelarasan insentif" secara alami—setiap transaksi, setiap interaksi kontrak, dan setiap perilaku alamat dompet terhubung langsung dengan modal nyata dan tidak dapat diubah. Ini adalah "data perilaku penyelarasan insentif manusia yang paling terkonsentrasi di internet", yang tercermin dalam tiga dimensi:
) sinyal "niat" dunia nyata
Data yang tercatat di blockchain bukanlah komentar emosional atau klik sembarangan, melainkan tindakan keputusan yang dipilih dengan uang sungguhan. Misalnya, tindakan sebuah dompet yang menukar aset di DEX tertentu, menggadaikan pinjaman di platform pinjaman, atau mendaftar nama domain, secara langsung mencerminkan penilaian pengguna terhadap nilai proyek, preferensi risiko, dan strategi alokasi dana. Data yang "didukung oleh modal" ini sangat berharga untuk melatih kemampuan pengambilan keputusan AI ( seperti prediksi keuangan, analisis pasar ). Sebaliknya, data internet tradisional dipenuhi "noise" — seperti like palsu di media sosial dan komentar pesanan palsu di platform e-commerce, data-data ini tidak hanya tidak dapat melatih model AI yang dapat diandalkan, tetapi malah dapat menyesatkan penilaian model.
( dapat ditelusuri "rantai perilaku"
Transparansi blockchain memungkinkan perilaku pengguna untuk dilacak secara lengkap. Riwayat transaksi dari sebuah alamat dompet, protokol yang pernah berinteraksi, dan perubahan aset yang dimiliki, membentuk sebuah "rantai perilaku" yang koheren. Misalnya, dengan menganalisis operasi alamat tertentu di protokol DeFi dari tahun 2020 hingga sekarang, AI dapat secara akurat mengidentifikasi apakah itu adalah "pemegang jangka panjang", "trader arbitrase", atau "penyedia likuiditas", dan berdasarkan itu membangun profil pengguna. Data perilaku yang terstruktur ini adalah "contoh penalaran manusia" yang paling langka dalam model AI saat ini.
) Akses "tanpa izin" ekosistem terbuka
Tidak seperti data perusahaan tradisional seperti catatan transaksi bank, data pengguna e-commerce yang bersifat tertutup, data on-chain bersifat terbuka dan tidak memerlukan izin. Setiap pengembang dapat mengakses data mentah melalui penjelajah blockchain atau API data, yang menyediakan sumber data "tanpa batas" untuk pelatihan model AI. Namun, keterbukaan ini juga membawa tantangan: data on-chain ada dalam bentuk "log peristiwa" seperti peristiwa Transfer ERC-20 Ethereum, peristiwa Swap dari DEX tertentu, yang merupakan "sinyal mentah" yang tidak terstruktur, perlu dibersihkan, distandarisasi, dan dihubungkan agar dapat digunakan oleh model AI. Saat ini, "tingkat konversi terstruktur" data on-chain kurang dari 5%, banyak sinyal bernilai tinggi terpendam di antara miliaran peristiwa yang terfragmentasi.
Hyperdata Network: "Sistem Operasi" untuk Data di Jalur
Untuk mengatasi masalah fragmentasi data di blockchain, sebuah "sistem operasi pintar di blockchain" yang baru lahir. Tujuan utamanya adalah untuk mengubah sinyal blockchain yang terdesentralisasi menjadi data siap AI yang terstruktur, dapat diverifikasi, dan dapat dikombinasikan secara real-time.
Manuskrip: Standar Data Terbuka, agar AI "memahami" dunia di atas rantai
Salah satu masalah utama data on-chain adalah "format yang kacau" — format log peristiwa dari berbagai blockchain ( seperti Ethereum, Solana, dan Avalanche) berbeda-beda, dan struktur data dari versi yang berbeda dari protokol yang sama juga dapat bervariasi. Manuscript sebagai standar schema data terbuka, menyatukan definisi dan cara deskripsi data on-chain. Misalnya, ia menstandarkan "perilaku staking pengguna" menjadi data terstruktur yang mencakup staker_address, protocol_id, amount, timestamp, reward_token, dan bidang lainnya, memastikan bahwa model AI tidak perlu menyesuaikan dengan format data dari berbagai chain atau protokol, dan dapat langsung "memahami" logika bisnis di balik data.
Nilai standar ini terletak pada pengurangan biaya gesekan dalam pengembangan AI. Misalkan sebuah tim ingin melatih "Model Prediksi Perilaku Pengguna DeFi", cara tradisional memerlukan penghubungan API dari berbagai rantai seperti Ethereum, Polygon, dan menulis skrip pemrosesan yang berbeda; sementara berdasarkan Manuscript, semua data di rantai telah diproses sebelumnya sesuai dengan standar yang seragam, pengembang dapat langsung memanggil data terstruktur seperti "Catatan Staking Pengguna" dan "Catatan Penyediaan Likuiditas", yang secara signifikan memperpendek siklus pelatihan model.
Persyaratan inti model AI terhadap data adalah "terpercaya"—jika data pelatihan dimanipulasi atau terkontaminasi, keluaran model akan menjadi tidak berharga. Mekanisme AVS###Active Validator Set### di Ethereum dapat memastikan keaslian data. AVS adalah komponen ekstensi dari lapisan konsensus Ethereum, yang terdiri dari lebih dari 600.000 node validator yang dipertaruhkan dengan ETH, yang bertanggung jawab untuk memverifikasi integritas dan akurasi data di blockchain. Ketika memproses suatu peristiwa di blockchain, node AVS akan melakukan verifikasi silang terhadap nilai hash data, informasi tanda tangan, dan status di blockchain, memastikan bahwa data terstruktur yang dihasilkan sepenuhnya konsisten dengan data asli di blockchain.
Mekanisme verifikasi dari "jaminan ekonomi kripto" ini mengatasi masalah kepercayaan pada verifikasi terpusat tradisional. Misalnya, jika sebuah perusahaan AI menggunakan data on-chain yang disediakan oleh lembaga terpusat, mereka harus mempercayai bahwa lembaga tersebut tidak memanipulasi data; sedangkan dengan verifikasi terdesentralisasi, keaslian data didukung oleh jaringan verifier terdesentralisasi, dan setiap tindakan manipulasi akan memicu mekanisme hukuman dari kontrak pintar seperti pemotongan ETH yang dipertaruhkan.
( Lapisan Ketersediaan Data dengan Throughput Tinggi
Model AI, terutama aplikasi AI interaktif waktu nyata ) seperti robot trading, layanan pelanggan cerdas (, memerlukan pasokan data dengan latensi rendah dan throughput tinggi. Dengan mengoptimalkan algoritma kompresi data dan protokol transmisi, pemrosesan real-time untuk ratusan ribu peristiwa di blockchain per detik dapat dicapai. Misalnya, ketika terjadi transaksi besar di DEX tertentu, data dapat diekstraksi, distandarisasi, dan diverifikasi dalam waktu 1 detik, dan "sinyal transaksi besar" yang terstruktur dapat dikirim ke model AI yang berlangganan, sehingga model tersebut dapat menyesuaikan strategi tradingnya dengan cepat.
Di balik throughput tinggi adalah arsitektur modular - memisahkan penyimpanan data dan komputasi, dengan penyimpanan data ditangani oleh jaringan node terdistribusi, sementara komputasi dilakukan melalui Rollup off-chain, menghindari hambatan kinerja dari blockchain itu sendiri. Desain ini memungkinkan jaringan data untuk mendukung kebutuhan data waktu nyata dari aplikasi AI skala besar, seperti memberikan layanan data on-chain secara bersamaan untuk ribuan agen transaksi.
Era DataFi: Ketika Data Menjadi "Modal" yang Dapat Diperdagangkan
Tujuan akhir dari jaringan data baru adalah untuk mendorong industri AI memasuki era DataFi—data tidak lagi menjadi "materi pelatihan" yang pasif, tetapi "modal" yang aktif, dapat dinilai, diperdagangkan, dan dihargakan. Seperti listrik yang dinilai dalam kilowatt, daya komputasi dinilai dalam FLOPS, data juga harus dinilai, diranking, dan dinilai. Realisasi visi ini bergantung pada transformasi data menjadi empat atribut inti:
) Struktur: dari "sinyal mentah" ke "aset yang dapat digunakan"
Data on-chain yang belum diproses seperti "minyak mentah", perlu disuling untuk menjadi "bensin". Melalui standarisasi, data ini diubah menjadi data terstruktur, misalnya memecah "alamat dompet A pada waktu T menyetor X token ke protokol B" menjadi data multidimensi yang mencakup profil pengguna, atribut protokol, jenis aset, dan stempel waktu. Struktur ini memungkinkan data untuk diakses langsung oleh model AI, sama seperti memanggil antarmuka API.
dapat digabungkan: "blok Lego" data
Dalam Web3, "komposabilitas" memicu ledakan DeFi ( seperti inovasi kombinasi DEX + pinjaman + agregasi hasil ). Menghadirkan konsep ini ke dalam bidang data: data terstruktur dapat digabungkan dengan bebas seperti balok Lego. Misalnya, pengembang dapat menggabungkan "catatan staking pengguna" ( dari protokol staking ) dengan "data fluktuasi harga" ( dari oracle ), dan "jumlah penyebutan sosial" ### dari API platform sosial (, untuk melatih "model prediksi sentimen pasar DeFi". Komposabilitas ini sangat memperluas batasan aplikasi data, membuat inovasi AI tidak lagi terbatasi oleh sumber data tunggal.
) dapat diverifikasi: "dukungan kredit" data
Melalui data terstruktur yang terverifikasi, akan dihasilkan "sidik jari data" unik ### nilai hash ###, dan disimpan di blockchain. Setiap aplikasi AI atau pengembang yang menggunakan data tersebut, dapat memverifikasi keaslian data dengan memverifikasi nilai hash. "Verifikasi" ini memberikan atribut kredibilitas pada data—misalnya, sebuah kumpulan data yang diberi label "sinyal perdagangan berkualitas tinggi", tingkat akurasi historisnya dapat ditelusuri melalui catatan hash di blockchain, pengguna tidak perlu mempercayai penyedia kumpulan data, cukup dengan memverifikasi sidik jari data untuk menilai kualitas data.
( dapat dimonetisasi:"perolehan nilai" data
Di era DataFi, penyedia data dapat mengubah data terstruktur langsung menjadi uang. Misalnya, sebuah tim mengembangkan "sinyal peringatan kerentanan kontrak pintar" dengan menganalisis data on-chain, yang dapat dikemas menjadi layanan API dan dikenakan biaya berdasarkan jumlah panggilan; pengguna biasa juga dapat memberikan izin untuk berbagi data on-chain anonim mereka dan mendapatkan imbalan token data. Dalam ekosistem data, nilai data ditentukan oleh penawaran dan permintaan pasar — sinyal perdagangan dengan akurasi tinggi mungkin dihargai lebih tinggi, sementara data perilaku pengguna yang mendasar mungkin dikenakan biaya per penggunaan.
Penutup: Revolusi Data, Sepuluh Tahun Berikutnya untuk AI
Ketika kita membicarakan masa depan AI, kita sering terfokus pada "tingkat kecerdasan" model, tetapi mengabaikan "tanah data" yang mendukung kecerdasan tersebut. Jaringan data baru mengungkapkan satu kebenaran inti: evolusi AI, pada dasarnya adalah evolusi infrastruktur data. Dari "keterbatasan" data yang dihasilkan manusia hingga "penemuan nilai" data di blockchain, dari "kekacauan" sinyal yang terfragmentasi hingga "keteraturan" data terstruktur, dari "sumber daya gratis" data hingga "aset modal" DataFi, sedang membentuk kembali logika dasar industri AI.
Di era DataFi ini, data akan menjadi jembatan yang menghubungkan AI dengan dunia nyata—agen perdagangan merasakan emosi pasar melalui data on-chain, dApp mandiri mengoptimalkan layanan melalui data perilaku pengguna, sedangkan pengguna biasa memperoleh pendapatan berkelanjutan melalui berbagi data. Sama seperti jaringan listrik melahirkan revolusi industri, Daya Komputasi jaringan melahirkan revolusi internet, jaringan data sedang melahirkan "revolusi data" AI.
Aplikasi AI-native generasi berikutnya tidak hanya membutuhkan model atau dompet, tetapi juga data yang tanpa kepercayaan, dapat diprogram, dan memiliki sinyal tinggi. Ketika data akhirnya diberikan nilai yang semestinya, AI dapat benar-benar melepaskan kekuatan untuk mengubah dunia.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
16 Suka
Hadiah
16
7
Posting ulang
Bagikan
Komentar
0/400
GasGrillMaster
· 07-27 18:02
Bukankah itu hanya mengumpulkan data?
Lihat AsliBalas0
PuzzledScholar
· 07-26 22:29
Data juga harus dikapitalisasi, sangat melelahkan.
Lihat AsliBalas0
MEVHunterX
· 07-26 06:24
Belum cukup cepat, data yang lambat akan dihapus.
Lihat AsliBalas0
consensus_failure
· 07-26 06:23
Revolusi data sepertinya akan segera tiba... memperdagangkan zona DataFi
Lihat AsliBalas0
AirdropworkerZhang
· 07-26 06:13
Sepertinya kita akan menghadapi kompetisi lagi ya.
Lihat AsliBalas0
TrustlessMaximalist
· 07-26 06:12
Terlambat, big data sudah menjadi standar Web3.
Lihat AsliBalas0
IntrovertMetaverse
· 07-26 05:59
Siapa yang mengumpulkan data saya, dialah yang besar!
Era DataFi telah tiba: data on-chain akan memimpin revolusi berikutnya di industri AI
Revolusi Berikutnya dalam Industri AI: Dari Daya Komputasi ke Revolusi Data
Kecerdasan Buatan ( AI ) model parameter skala melampaui triliun, daya komputasi diukur dalam triliunan kali per detik ( FLOPS ), sebuah hambatan inti yang diabaikan mulai muncul ke permukaan—data. Revolusi berikutnya dalam industri AI tidak lagi didorong oleh arsitektur model atau daya komputasi chip, tetapi tergantung pada bagaimana kita mengubah data perilaku manusia yang terfragmentasi menjadi modal yang dapat diverifikasi, terstruktur, dan siap AI. Wawasan ini tidak hanya mengungkapkan kontradiksi struktural dalam perkembangan AI saat ini, tetapi juga menggambarkan gambaran baru dari "Era DataFi"—di era ini, data tidak lagi menjadi produk sampingan teknologi, tetapi menjadi faktor produksi inti yang dapat diukur, diperdagangkan, dan ditingkatkan nilainya seperti listrik dan daya komputasi.
Dari Daya Komputasi Kompetisi ke Kelangkaan Data: Kontradiksi Struktural dalam Industri AI
Perkembangan AI selama ini didorong oleh "model-Daya Komputasi" sebagai inti ganda. Sejak revolusi pembelajaran mendalam, parameter model telah melonjak dari jutaan ( seperti AlexNet 2012 ) menjadi triliunan ( seperti GPT-4), dengan permintaan daya komputasi yang meningkat secara eksponensial. Biaya untuk melatih model bahasa besar yang canggih telah melebihi 100 juta dolar, di mana 90% digunakan untuk penyewaan kluster GPU. Namun, ketika industri memfokuskan perhatian pada "model yang lebih besar" dan "chip yang lebih cepat", krisis sisi pasokan data sedang datang dengan diam-diam.
"Data organik" yang dihasilkan manusia telah mencapai batas pertumbuhan. Sebagai contoh data teks, jumlah total teks berkualitas tinggi yang dapat di-crawl secara publik di internet, seperti buku, makalah, dan berita, adalah sekitar 10^12 kata, sementara pelatihan model dengan seratus miliar parameter memerlukan sekitar 10^13 kata tingkat data—ini berarti kolam data yang ada hanya dapat mendukung pelatihan 10 model dengan skala yang sama. Yang lebih serius, proporsi data duplikat dan konten berkualitas rendah melebihi 60%, yang lebih lanjut mengurangi pasokan data yang efektif. Ketika model mulai "menelan" data yang dihasilkannya sendiri seperti artikel yang ditulis AI dan gambar yang dihasilkan AI, "pencemaran data" yang menyebabkan penurunan kinerja model telah menjadi kekhawatiran dalam industri.
Akar dari kontradiksi ini terletak pada: industri AI telah lama memandang data sebagai "sumber daya gratis", bukan "aset strategis" yang perlu dibudidayakan dengan hati-hati. Model dan Daya Komputasi telah membentuk sistem pasar yang matang—Daya Komputasi dihargai berdasarkan FLOPS di platform cloud, model memiliki antarmuka API yang dikenakan biaya berdasarkan jumlah panggilan—tetapi produksi, pembersihan, verifikasi, dan perdagangan data masih berada di "zaman prasejarah". Sepuluh tahun berikutnya untuk AI akan menjadi "tahun infrastruktur data", dan data on-chain dari jaringan kripto adalah kunci untuk membuka kebuntuan ini.
Data On-Chain: "Database Perilaku Manusia" yang Paling Dibutuhkan AI
Dalam konteks kelangkaan data, data on-chain dari jaringan kripto menunjukkan nilai yang tak tergantikan. Dibandingkan dengan data internet tradisional seperti pos media sosial, komentar e-commerce (, data on-chain memiliki keaslian "penyelarasan insentif" secara alami—setiap transaksi, setiap interaksi kontrak, dan setiap perilaku alamat dompet terhubung langsung dengan modal nyata dan tidak dapat diubah. Ini adalah "data perilaku penyelarasan insentif manusia yang paling terkonsentrasi di internet", yang tercermin dalam tiga dimensi:
) sinyal "niat" dunia nyata
Data yang tercatat di blockchain bukanlah komentar emosional atau klik sembarangan, melainkan tindakan keputusan yang dipilih dengan uang sungguhan. Misalnya, tindakan sebuah dompet yang menukar aset di DEX tertentu, menggadaikan pinjaman di platform pinjaman, atau mendaftar nama domain, secara langsung mencerminkan penilaian pengguna terhadap nilai proyek, preferensi risiko, dan strategi alokasi dana. Data yang "didukung oleh modal" ini sangat berharga untuk melatih kemampuan pengambilan keputusan AI ( seperti prediksi keuangan, analisis pasar ). Sebaliknya, data internet tradisional dipenuhi "noise" — seperti like palsu di media sosial dan komentar pesanan palsu di platform e-commerce, data-data ini tidak hanya tidak dapat melatih model AI yang dapat diandalkan, tetapi malah dapat menyesatkan penilaian model.
( dapat ditelusuri "rantai perilaku"
Transparansi blockchain memungkinkan perilaku pengguna untuk dilacak secara lengkap. Riwayat transaksi dari sebuah alamat dompet, protokol yang pernah berinteraksi, dan perubahan aset yang dimiliki, membentuk sebuah "rantai perilaku" yang koheren. Misalnya, dengan menganalisis operasi alamat tertentu di protokol DeFi dari tahun 2020 hingga sekarang, AI dapat secara akurat mengidentifikasi apakah itu adalah "pemegang jangka panjang", "trader arbitrase", atau "penyedia likuiditas", dan berdasarkan itu membangun profil pengguna. Data perilaku yang terstruktur ini adalah "contoh penalaran manusia" yang paling langka dalam model AI saat ini.
) Akses "tanpa izin" ekosistem terbuka
Tidak seperti data perusahaan tradisional seperti catatan transaksi bank, data pengguna e-commerce yang bersifat tertutup, data on-chain bersifat terbuka dan tidak memerlukan izin. Setiap pengembang dapat mengakses data mentah melalui penjelajah blockchain atau API data, yang menyediakan sumber data "tanpa batas" untuk pelatihan model AI. Namun, keterbukaan ini juga membawa tantangan: data on-chain ada dalam bentuk "log peristiwa" seperti peristiwa Transfer ERC-20 Ethereum, peristiwa Swap dari DEX tertentu, yang merupakan "sinyal mentah" yang tidak terstruktur, perlu dibersihkan, distandarisasi, dan dihubungkan agar dapat digunakan oleh model AI. Saat ini, "tingkat konversi terstruktur" data on-chain kurang dari 5%, banyak sinyal bernilai tinggi terpendam di antara miliaran peristiwa yang terfragmentasi.
Hyperdata Network: "Sistem Operasi" untuk Data di Jalur
Untuk mengatasi masalah fragmentasi data di blockchain, sebuah "sistem operasi pintar di blockchain" yang baru lahir. Tujuan utamanya adalah untuk mengubah sinyal blockchain yang terdesentralisasi menjadi data siap AI yang terstruktur, dapat diverifikasi, dan dapat dikombinasikan secara real-time.
Manuskrip: Standar Data Terbuka, agar AI "memahami" dunia di atas rantai
Salah satu masalah utama data on-chain adalah "format yang kacau" — format log peristiwa dari berbagai blockchain ( seperti Ethereum, Solana, dan Avalanche) berbeda-beda, dan struktur data dari versi yang berbeda dari protokol yang sama juga dapat bervariasi. Manuscript sebagai standar schema data terbuka, menyatukan definisi dan cara deskripsi data on-chain. Misalnya, ia menstandarkan "perilaku staking pengguna" menjadi data terstruktur yang mencakup staker_address, protocol_id, amount, timestamp, reward_token, dan bidang lainnya, memastikan bahwa model AI tidak perlu menyesuaikan dengan format data dari berbagai chain atau protokol, dan dapat langsung "memahami" logika bisnis di balik data.
Nilai standar ini terletak pada pengurangan biaya gesekan dalam pengembangan AI. Misalkan sebuah tim ingin melatih "Model Prediksi Perilaku Pengguna DeFi", cara tradisional memerlukan penghubungan API dari berbagai rantai seperti Ethereum, Polygon, dan menulis skrip pemrosesan yang berbeda; sementara berdasarkan Manuscript, semua data di rantai telah diproses sebelumnya sesuai dengan standar yang seragam, pengembang dapat langsung memanggil data terstruktur seperti "Catatan Staking Pengguna" dan "Catatan Penyediaan Likuiditas", yang secara signifikan memperpendek siklus pelatihan model.
Persyaratan inti model AI terhadap data adalah "terpercaya"—jika data pelatihan dimanipulasi atau terkontaminasi, keluaran model akan menjadi tidak berharga. Mekanisme AVS###Active Validator Set### di Ethereum dapat memastikan keaslian data. AVS adalah komponen ekstensi dari lapisan konsensus Ethereum, yang terdiri dari lebih dari 600.000 node validator yang dipertaruhkan dengan ETH, yang bertanggung jawab untuk memverifikasi integritas dan akurasi data di blockchain. Ketika memproses suatu peristiwa di blockchain, node AVS akan melakukan verifikasi silang terhadap nilai hash data, informasi tanda tangan, dan status di blockchain, memastikan bahwa data terstruktur yang dihasilkan sepenuhnya konsisten dengan data asli di blockchain.
Mekanisme verifikasi dari "jaminan ekonomi kripto" ini mengatasi masalah kepercayaan pada verifikasi terpusat tradisional. Misalnya, jika sebuah perusahaan AI menggunakan data on-chain yang disediakan oleh lembaga terpusat, mereka harus mempercayai bahwa lembaga tersebut tidak memanipulasi data; sedangkan dengan verifikasi terdesentralisasi, keaslian data didukung oleh jaringan verifier terdesentralisasi, dan setiap tindakan manipulasi akan memicu mekanisme hukuman dari kontrak pintar seperti pemotongan ETH yang dipertaruhkan.
( Lapisan Ketersediaan Data dengan Throughput Tinggi
Model AI, terutama aplikasi AI interaktif waktu nyata ) seperti robot trading, layanan pelanggan cerdas (, memerlukan pasokan data dengan latensi rendah dan throughput tinggi. Dengan mengoptimalkan algoritma kompresi data dan protokol transmisi, pemrosesan real-time untuk ratusan ribu peristiwa di blockchain per detik dapat dicapai. Misalnya, ketika terjadi transaksi besar di DEX tertentu, data dapat diekstraksi, distandarisasi, dan diverifikasi dalam waktu 1 detik, dan "sinyal transaksi besar" yang terstruktur dapat dikirim ke model AI yang berlangganan, sehingga model tersebut dapat menyesuaikan strategi tradingnya dengan cepat.
Di balik throughput tinggi adalah arsitektur modular - memisahkan penyimpanan data dan komputasi, dengan penyimpanan data ditangani oleh jaringan node terdistribusi, sementara komputasi dilakukan melalui Rollup off-chain, menghindari hambatan kinerja dari blockchain itu sendiri. Desain ini memungkinkan jaringan data untuk mendukung kebutuhan data waktu nyata dari aplikasi AI skala besar, seperti memberikan layanan data on-chain secara bersamaan untuk ribuan agen transaksi.
Era DataFi: Ketika Data Menjadi "Modal" yang Dapat Diperdagangkan
Tujuan akhir dari jaringan data baru adalah untuk mendorong industri AI memasuki era DataFi—data tidak lagi menjadi "materi pelatihan" yang pasif, tetapi "modal" yang aktif, dapat dinilai, diperdagangkan, dan dihargakan. Seperti listrik yang dinilai dalam kilowatt, daya komputasi dinilai dalam FLOPS, data juga harus dinilai, diranking, dan dinilai. Realisasi visi ini bergantung pada transformasi data menjadi empat atribut inti:
) Struktur: dari "sinyal mentah" ke "aset yang dapat digunakan"
Data on-chain yang belum diproses seperti "minyak mentah", perlu disuling untuk menjadi "bensin". Melalui standarisasi, data ini diubah menjadi data terstruktur, misalnya memecah "alamat dompet A pada waktu T menyetor X token ke protokol B" menjadi data multidimensi yang mencakup profil pengguna, atribut protokol, jenis aset, dan stempel waktu. Struktur ini memungkinkan data untuk diakses langsung oleh model AI, sama seperti memanggil antarmuka API.
dapat digabungkan: "blok Lego" data
Dalam Web3, "komposabilitas" memicu ledakan DeFi ( seperti inovasi kombinasi DEX + pinjaman + agregasi hasil ). Menghadirkan konsep ini ke dalam bidang data: data terstruktur dapat digabungkan dengan bebas seperti balok Lego. Misalnya, pengembang dapat menggabungkan "catatan staking pengguna" ( dari protokol staking ) dengan "data fluktuasi harga" ( dari oracle ), dan "jumlah penyebutan sosial" ### dari API platform sosial (, untuk melatih "model prediksi sentimen pasar DeFi". Komposabilitas ini sangat memperluas batasan aplikasi data, membuat inovasi AI tidak lagi terbatasi oleh sumber data tunggal.
) dapat diverifikasi: "dukungan kredit" data
Melalui data terstruktur yang terverifikasi, akan dihasilkan "sidik jari data" unik ### nilai hash ###, dan disimpan di blockchain. Setiap aplikasi AI atau pengembang yang menggunakan data tersebut, dapat memverifikasi keaslian data dengan memverifikasi nilai hash. "Verifikasi" ini memberikan atribut kredibilitas pada data—misalnya, sebuah kumpulan data yang diberi label "sinyal perdagangan berkualitas tinggi", tingkat akurasi historisnya dapat ditelusuri melalui catatan hash di blockchain, pengguna tidak perlu mempercayai penyedia kumpulan data, cukup dengan memverifikasi sidik jari data untuk menilai kualitas data.
( dapat dimonetisasi:"perolehan nilai" data
Di era DataFi, penyedia data dapat mengubah data terstruktur langsung menjadi uang. Misalnya, sebuah tim mengembangkan "sinyal peringatan kerentanan kontrak pintar" dengan menganalisis data on-chain, yang dapat dikemas menjadi layanan API dan dikenakan biaya berdasarkan jumlah panggilan; pengguna biasa juga dapat memberikan izin untuk berbagi data on-chain anonim mereka dan mendapatkan imbalan token data. Dalam ekosistem data, nilai data ditentukan oleh penawaran dan permintaan pasar — sinyal perdagangan dengan akurasi tinggi mungkin dihargai lebih tinggi, sementara data perilaku pengguna yang mendasar mungkin dikenakan biaya per penggunaan.
Penutup: Revolusi Data, Sepuluh Tahun Berikutnya untuk AI
Ketika kita membicarakan masa depan AI, kita sering terfokus pada "tingkat kecerdasan" model, tetapi mengabaikan "tanah data" yang mendukung kecerdasan tersebut. Jaringan data baru mengungkapkan satu kebenaran inti: evolusi AI, pada dasarnya adalah evolusi infrastruktur data. Dari "keterbatasan" data yang dihasilkan manusia hingga "penemuan nilai" data di blockchain, dari "kekacauan" sinyal yang terfragmentasi hingga "keteraturan" data terstruktur, dari "sumber daya gratis" data hingga "aset modal" DataFi, sedang membentuk kembali logika dasar industri AI.
Di era DataFi ini, data akan menjadi jembatan yang menghubungkan AI dengan dunia nyata—agen perdagangan merasakan emosi pasar melalui data on-chain, dApp mandiri mengoptimalkan layanan melalui data perilaku pengguna, sedangkan pengguna biasa memperoleh pendapatan berkelanjutan melalui berbagi data. Sama seperti jaringan listrik melahirkan revolusi industri, Daya Komputasi jaringan melahirkan revolusi internet, jaringan data sedang melahirkan "revolusi data" AI.
Aplikasi AI-native generasi berikutnya tidak hanya membutuhkan model atau dompet, tetapi juga data yang tanpa kepercayaan, dapat diprogram, dan memiliki sinyal tinggi. Ketika data akhirnya diberikan nilai yang semestinya, AI dapat benar-benar melepaskan kekuatan untuk mengubah dunia.