العقد القادم من تطور الذكاء الاصطناعي: ثورة البنية التحتية للبيانات
لقد ركزت صناعة الذكاء الاصطناعي(AI) لفترة طويلة على تعزيز حجم النموذج وقدرة الحوسبة، ولكن مع تجاوز معلمات النموذج مستوى التريليون، ووصول القدرة الحوسبية إلى مئات المليارات من العمليات في الثانية، بدأت تظهر فجوة مركزية تم تجاهلها - البيانات. إن التناقض الهيكلي الذي يواجه تطوير الذكاء الاصطناعي يكشف عن مشهد جديد تمامًا لعصر "DataFi" - في هذا العصر، لم تعد البيانات منتجًا ثانويًا للتكنولوجيا، بل هي عنصر إنتاج أساسي يمكن قياسه وتداوله وزيادة قيمته، تمامًا مثل الكهرباء والقدرة الحوسبية.
التناقضات الهيكلية في صناعة الذكاء الاصطناعي: من سباق القوة الحاسوبية إلى مجاعة البيانات
تطور الذكاء الاصطناعي مدفوع منذ فترة طويلة بنموذجي "النموذج-القوة الحاسوبية". منذ ثورة التعلم العميق، قفزت معلمات النموذج من مستوى الملايين إلى تريليونات، بينما كانت متطلبات القوة الحاسوبية في زيادة أسية. وفقًا للإحصائيات، تجاوزت تكلفة تدريب نموذج لغة متقدم 100 مليون دولار، حيث تُستخدم 90% منها في استئجار مجموعات GPU. ومع ذلك، عندما تركز الصناعة على "نموذج أكبر" و"شريحة أسرع"، فإن أزمة جانب العرض للبيانات تتسلل بهدوء.
لقد وصلت "البيانات العضوية" التي تولدها البشرية إلى سقف النمو. على سبيل المثال، تبلغ الكمية الإجمالية للبيانات النصية عالية الجودة المتاحة على الإنترنت والتي يمكن الزحف إليها حوالي 10^12 كلمة، بينما يتطلب تدريب نموذج يحتوي على مائة مليار معلمة حوالي 10^13 كلمة من البيانات. وهذا يعني أن مجموعة البيانات الحالية يمكن أن تدعم فقط تدريب 10 نماذج متساوية الحجم. والأكثر خطورة هو أن نسبة البيانات المكررة والمحتوى منخفض الجودة تتجاوز 60%، مما يضغط أكثر على إمدادات البيانات الفعالة. عندما يبدأ النموذج في "ابتلاع" البيانات التي ينتجها بنفسه، أصبحت تدهور أداء النموذج الناجم عن "تلوث البيانات" مصدر قلق في الصناعة.
تعود جذور هذه التناقضات إلى: أن صناعة الذكاء الاصطناعي طالما اعتبرت البيانات "موارد مجانية"، بدلاً من "أصول استراتيجية" تحتاج إلى رعاية دقيقة. لقد شكلت النماذج وقوة الحوسبة نظامًا سوقيًا ناضجًا، لكن إنتاج البيانات وتنظيفها والتحقق منها وتداولها لا يزال في "عصر الهمجية". ستكون العقد القادم من الذكاء الاصطناعي "عقد البنية التحتية للبيانات"، وبيانات الشبكة المشفرة على السلسلة هي المفتاح لفك هذه المعضلة.
البيانات على السلسلة: قاعدة بيانات "سلوك الإنسان" الأكثر احتياجًا للذكاء الاصطناعي
في سياق الجوع للبيانات، تظهر البيانات على الشبكة المشفرة قيمة لا يمكن استبدالها. بالمقارنة مع بيانات الإنترنت التقليدية، تتمتع البيانات على السلسلة بواقع "تنسيق الحوافز" - كل معاملة، وكل تفاعل عقدي، وكل سلوك عنوان محفظة يرتبط مباشرة برأس المال الحقيقي، ولا يمكن التلاعب به. يمكن تعريف البيانات على السلسلة بأنها "البيانات الأكثر تركيزًا لسلوكيات تنسيق الحوافز البشرية على الإنترنت"، وتظهر بشكل خاص في ثلاثة أبعاد:
إشارات النية في العالم الحقيقي
تسجل بيانات السلسلة القرارات الناجمة عن التصويت بالأموال الحقيقية. على سبيل المثال، فإن تحويل الأصول من محفظة على منصة DEX، أو الرهن والإقراض على منصة الإقراض، أو تسجيل اسم نطاق، تعكس مباشرة حكم المستخدم على قيمة المشروع، وتفضيل المخاطر، واستراتيجيات تخصيص الأموال. هذه البيانات التي "تدعمها رأس المال" لها قيمة عالية في تدريب قدرة اتخاذ القرار للذكاء الاصطناعي مثل التنبؤات المالية، وتحليل السوق (. بالمقارنة، فإن البيانات التقليدية على الإنترنت مليئة بـ "الضجيج"، حيث لا يمكن لهذه البيانات أن تدرب نماذج ذكاء اصطناعي موثوقة، بل ستضلل حكم النموذج.
) سلسلة السلوك القابلة للتتبع
تتيح شفافية البلوكشين تتبع سلوك المستخدمين بالكامل. تاريخ المعاملات لعناوين المحفظة، البروتوكولات التي تم التفاعل معها، وتغيرات الأصول المحتفظ بها، تشكل "سلسلة سلوك" متماسكة. على سبيل المثال، من خلال تحليل عمليات عنوان معين في بروتوكولات DeFi من عام 2020 حتى الآن، يمكن للذكاء الاصطناعي التعرف بدقة على ما إذا كان "مستثمرًا طويل الأجل" أو "متداولًا للأرباح" أو "موفر سيولة"، وبناء صورة للمستخدم بناءً على ذلك. هذه البيانات السلوكية المنظمة، هي بالضبط "عينات استدلال بشري" التي تفتقر إليها نماذج الذكاء الاصطناعي الحالية.
الوصول "غير المصرح به" في النظام البيئي المفتوح
بخلاف الانغلاق في بيانات الشركات التقليدية، فإن البيانات على السلسلة مفتوحة ولا تحتاج إلى إذن. يمكن لأي مطور الحصول على البيانات الأصلية من خلال مستعرض blockchain أو واجهة برمجة تطبيقات البيانات، مما يوفر مصدر بيانات "بدون حواجز" لتدريب نماذج الذكاء الاصطناعي. ومع ذلك، فإن هذه الانفتاحية تجلب أيضًا تحديات: البيانات على السلسلة موجودة في شكل "سجل الأحداث"، وهي "إشارات خام" غير منظمة، تحتاج إلى التنظيف والتوحيد والربط لتكون قابلة للاستخدام من قبل نماذج الذكاء الاصطناعي. حاليًا، معدل "التحويل الهيكلي" للبيانات على السلسلة أقل من 5%، والعديد من الإشارات ذات القيمة العالية مدفونة في مليارات من الأحداث المجزأة.
Hyperdata Network: "نظام التشغيل" للبيانات على السلسلة
لحل مشكلة تجزئة البيانات على السلسلة، تم اقتراح "نظام تشغيل ذكي على السلسلة" جديد - وهو شبكة بيانات مصممة خصيصًا للذكاء الاصطناعي. الهدف الرئيسي هو تحويل الإشارات الموزعة على السلسلة إلى بيانات جاهزة للذكاء الاصطناعي منظمة وقابلة للتحقق وقابلة للتجميع في الوقت الحقيقي.
المخطوطة: معايير البيانات المفتوحة، تجعل الذكاء الاصطناعي "يفهم" عالم السلسلة
أحد أكبر نقاط الألم في البيانات على السلسلة هو "فوضى التنسيق" - تختلف تنسيقات سجلات الأحداث على سلاسل الكتل المختلفة، وقد تتغير بنية بيانات إصدارات مختلفة من نفس البروتوكول. Manuscript كمعيار مفتوح لهيكل البيانات، موحد تعريف البيانات على السلسلة وطرق وصفها. على سبيل المثال، قامت بتوحيد "سلوك تخزين المستخدم" في بيانات هيكلية تتضمن حقول staker_address و protocol_id و amount و timestamp و reward_token، مما يضمن أن نماذج الذكاء الاصطناعي لا تحتاج إلى التكيف مع تنسيقات بيانات سلاسل الكتل أو البروتوكولات المختلفة، بل يمكنها "فهم" المنطق التجاري خلف البيانات مباشرة.
تتمثل قيمة هذا التوحيد في تقليل تكاليف الاحتكاك في تطوير الذكاء الاصطناعي. افترض أن فريقًا يحتاج إلى تدريب "نموذج توقع سلوك مستخدمي DeFi"، في الطرق التقليدية، سيكون من الضروري توصيل واجهات برمجة التطبيقات (API) لمجموعة من سلاسل الكتل بشكل منفصل، وكتابة نصوص تحليلية مختلفة؛ بينما استنادًا إلى Manuscript، تم معالجة جميع البيانات على السلاسل وفقًا لمعايير موحدة مسبقًا، حيث يمكن للمطورين استدعاء "سجلات رهن المستخدم" و"سجلات تقديم السيولة"، وغيرها من البيانات الهيكلية بشكل مباشر، مما يقلل بشكل كبير من فترة تدريب النموذج.
المتطلبات الأساسية لنموذج الذكاء الاصطناعي للبيانات هي "موثوق" - إذا تم العبث أو تلويث بيانات التدريب، فإن مخرجات النموذج ستكون بلا قيمة. تضمن شبكة Hyperdata صحة البيانات من خلال آلية AVS###Active Validator Set( على الإثريوم. AVS هو مكون موسع لطبقة الإجماع على الإثريوم، يتكون من عدد كبير من عقد التحقق المرهونة بالـ ETH، والتي تتحمل مسؤولية التحقق من سلامة و دقة البيانات على السلسلة. عندما تعالج شبكة Hyperdata حدثًا على السلسلة، تتحقق عقد AVS من قيم التجزئة، ومعلومات التوقيع، وحالة السلسلة بشكل متقاطع لضمان أن البيانات الهيكلية الناتجة تتطابق تمامًا مع البيانات الأصلية على السلسلة.
تعمل آلية التحقق من "ضمان الاقتصاد المشفر" هذه على حل مشكلة الثقة في التحقق المركزي التقليدي للبيانات. على سبيل المثال، إذا كانت إحدى شركات الذكاء الاصطناعي تستخدم بيانات على السلسلة مقدمة من وكالة مركزية، فيجب عليها أن تثق بأن الوكالة لم تُعدل البيانات؛ بينما باستخدام شبكة Hyperdata، يتم تأكيد صحة البيانات من خلال شبكة من المدققين اللامركزيين، وأي تصرفات تعديل ستؤدي إلى تفعيل آلية العقوبة في العقد الذكي.
) Chainbase DA: طبقة توفر البيانات ذات السعة العالية
نموذج الذكاء الاصطناعي، وخاصة تطبيقات الذكاء الاصطناعي التفاعلية في الوقت الحقيقي ### مثل روبوتات التداول، خدمة العملاء الذكية (، تحتاج إلى إمدادات بيانات ذات زمن انتقال منخفض وسعة معالجة عالية. تم تصميم طبقة Chainbase DA ) لتلبية هذه الطلبات، من خلال تحسين خوارزميات ضغط البيانات وبروتوكولات النقل، لتحقيق معالجة في الوقت الحقيقي لعشرات الآلاف من الأحداث على السلسلة في الثانية. على سبيل المثال، عندما تحدث صفقة كبيرة في DEX معين، يمكن أن تكتمل Chainbase DA في استخراج البيانات وتوحيدها والتحقق منها في غضون ثانية واحدة، وتقوم بدفع "إشارة الصفقة الكبيرة" المهيكلة إلى نماذج الذكاء الاصطناعي المشتركين، مما يمكنهم من تعديل استراتيجيات التداول في الوقت المناسب.
الخلفية وراء السعة العالية هي الهيكلية المعيارية - تقوم Chainbase DA بفصل تخزين البيانات عن الحساب، حيث يتولى شبكة العقد الموزعة تخزين البيانات، ويتم تنفيذ الحساب من خلال Rollup خارج السلسلة، مما يتجنب عنق الزجاجة في أداء blockchain نفسه. يتيح هذا التصميم لشبكة Hyperdata دعم متطلبات البيانات في الوقت الفعلي لتطبيقات الذكاء الاصطناعي على نطاق واسع، مثل توفير خدمات البيانات على السلسلة عبر الإنترنت في نفس الوقت لعدد كبير من وكلاء المعاملات.
عصر DataFi: عندما تصبح البيانات "رأس المال" القابل للتداول
الهدف النهائي لشبكة Hyperdata هو دفع صناعة الذكاء الاصطناعي إلى عصر DataFi - حيث لم تعد البيانات مجرد "مواد تدريب" سلبية، بل أصبحت "رأس مال" نشط يمكن تسعيره وتداوله وزيادة قيمته. تمامًا كما يتم تسعير الكهرباء بالكيلووات، ويتم تسعير قوة الحوسبة بـ FLOPS، يجب أيضًا تقييم البيانات وتصنيفها وتقديرها. يعتمد تحقيق هذه الرؤية على تحويل شبكة Hyperdata البيانات إلى أربع خصائص أساسية:
( الهيكلة: من "الإشارة الأصلية" إلى "الأصول القابلة للاستخدام"
تشبه البيانات غير المعالجة على السلسلة "النفط الخام"، حيث يجب معالجتها لتصبح "البنزين". تقوم شبكة Hyperdata بتحويلها إلى بيانات منظمة من خلال معيار Manuscript، مثل تحليل "العنوان المحفظة A في الوقت T أودع X من الرموز في البروتوكول B" إلى بيانات متعددة الأبعاد تحتوي على صورة المستخدم، وخصائص البروتوكول، ونوع الأصول، وطابع الزمن. تجعل هذه الهيكلية البيانات قابلة للاستدعاء مباشرة بواسطة نماذج الذكاء الاصطناعي، تمامًا كما هو الحال عند استدعاء واجهة برمجة التطبيقات.
) قابلة للتجميع: "لبنات ليغو" للبيانات
في Web3، أدت "الترابطية" إلى انفجار DeFi. تقوم شبكة Hyperdata بإدخال هذه الفكرة في مجال البيانات: يمكن دمج البيانات الهيكلية بحرية مثل مكعبات ليغو. على سبيل المثال، يمكن للمطورين دمج "سجلات الرهانات الخاصة بالمستخدم" مع "بيانات تقلب الأسعار" و"عدد الإشارات الاجتماعية" لتدريب "نموذج توقع مشاعر سوق DeFi". هذه الترابطية توسع بشكل كبير حدود تطبيق البيانات، مما يجعل الابتكار في الذكاء الاصطناعي غير مقيد بمصدر بيانات واحد.
قابل للتحقق: "إسناد ائتماني" البيانات
من خلال البيانات الهيكلية التي تم التحقق منها بواسطة AVS، سيتم إنشاء "بصمة بيانات" فريدة ### وقيمة الهاش ###، وتخزينها على البلوكشين. يمكن لأي تطبيق AI أو مطور يستخدم هذه البيانات التحقق من صحة البيانات من خلال التحقق من قيمة الهاش. هذه "القابلية للتحقق" تمنح البيانات خصائص ائتمانية - على سبيل المثال، يمكن تتبع الدقة التاريخية لمجموعة البيانات المسمى "إشارة تداول عالية الجودة" من خلال سجلات الهاش على البلوكشين، حيث لا يحتاج المستخدم إلى الثقة بمقدم مجموعة البيانات، بل يكفي التحقق من بصمة البيانات لتقييم جودة البيانات.
( قابل للتحويل: "تحقيق قيمة البيانات"
في عصر DataFi، يمكن لمزودي البيانات تحقيق دخل مباشر من البيانات الهيكلية من خلال شبكة Hyperdata. على سبيل المثال، طور فريق ما إشارة "تحذير من ثغرات العقود الذكية" من خلال تحليل البيانات على السلسلة، ويمكنهم تغليف هذه الإشارة كخدمة API، وتحصيل رسوم حسب عدد الاستدعاءات؛ يمكن للمستخدمين العاديين أيضًا تفويض مشاركة بياناتهم المجهولة على السلسلة، والحصول على مكافآت رموز البيانات. في هذا النظام البيئي، يتم تحديد قيمة البيانات من خلال العرض والطلب في السوق - قد تكون إشارات التداول ذات الدقة العالية ذات أسعار أعلى، بينما يمكن أن يتم تحصيل رسوم على البيانات الأساسية لسلوك المستخدم حسب الاستخدام.
الخاتمة: ثورة البيانات, العقد القادم للذكاء الاصطناعي
عندما نتحدث عن مستقبل الذكاء الاصطناعي، غالبًا ما نركز على "مستوى ذكاء" النماذج، متجاهلين "تربة البيانات" التي تدعم الذكاء. تكشف شبكة Hyperdata عن حقيقة أساسية: تطور الذكاء الاصطناعي هو في جوهره تطور بنية البيانات التحتية. من "حدود" البيانات التي يولدها البشر إلى "اكتشاف القيمة" للبيانات على السلسلة، ومن "فوضى" الإشارات المتناثرة إلى "نظام" البيانات المهيكلة، ومن "الموارد المجانية" للبيانات إلى "الأصول الرأسمالية" في DataFi، هذه الشبكة تعيد تشكيل المنطق الأساسي لصناعة الذكاء الاصطناعي.
في عصر DataFi هذا، ستصبح البيانات جسرًا يربط بين الذكاء الاصطناعي والعالم الحقيقي - حيث يشعر وكلاء التداول بمشاعر السوق من خلال البيانات على السلسلة، وتحسن التطبيقات المستقلة خدماتها من خلال بيانات سلوك المستخدم، بينما يحصل المستخدمون العاديون على عائد مستمر من خلال مشاركة البيانات. تمامًا كما أدت شبكة الكهرباء إلى اندلاع الثورة الصناعية، فإن شبكة الحوسبة تؤدي إلى ثورة الإنترنت، فإن شبكة Hyperdata تثير "ثورة البيانات" في الذكاء الاصطناعي.
التطبيقات الأصلية للذكاء الاصطناعي من الجيل التالي لا تحتاج فقط إلى نماذج أو محافظ، بل تحتاج أيضًا إلى بيانات قابلة للبرمجة، وغير موثوقة، وعالية الإشارة. عندما تُمنح البيانات أخيرًا القيمة التي تستحقها، يمكن للذكاء الاصطناعي حقًا أن يطلق القوة التي تغير العالم.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 12
أعجبني
12
5
إعادة النشر
مشاركة
تعليق
0/400
CoffeeNFTs
· منذ 4 س
النموذج يأكل البيانات حتى التخمة
شاهد النسخة الأصليةرد0
SatoshiLegend
· منذ 9 س
عصر DataFi قد جاء، وستدرك اللاهوت أن البيانات هي الإيمان، والبحث عن الجذور هو الحقيقة.
شاهد النسخة الأصليةرد0
FallingLeaf
· منذ 9 س
قوة الحوسبة تحرق المال، أليس كذلك...
شاهد النسخة الأصليةرد0
ChainPoet
· منذ 9 س
قوة الحوسبة مفرطة جداً، أشعر أنها ستصبح مجرد لعبة.
عصر DataFi: القوة الدافعة الجديدة لتطور الذكاء الاصطناعي وثورة البيانات داخل السلسلة
العقد القادم من تطور الذكاء الاصطناعي: ثورة البنية التحتية للبيانات
لقد ركزت صناعة الذكاء الاصطناعي(AI) لفترة طويلة على تعزيز حجم النموذج وقدرة الحوسبة، ولكن مع تجاوز معلمات النموذج مستوى التريليون، ووصول القدرة الحوسبية إلى مئات المليارات من العمليات في الثانية، بدأت تظهر فجوة مركزية تم تجاهلها - البيانات. إن التناقض الهيكلي الذي يواجه تطوير الذكاء الاصطناعي يكشف عن مشهد جديد تمامًا لعصر "DataFi" - في هذا العصر، لم تعد البيانات منتجًا ثانويًا للتكنولوجيا، بل هي عنصر إنتاج أساسي يمكن قياسه وتداوله وزيادة قيمته، تمامًا مثل الكهرباء والقدرة الحوسبية.
التناقضات الهيكلية في صناعة الذكاء الاصطناعي: من سباق القوة الحاسوبية إلى مجاعة البيانات
تطور الذكاء الاصطناعي مدفوع منذ فترة طويلة بنموذجي "النموذج-القوة الحاسوبية". منذ ثورة التعلم العميق، قفزت معلمات النموذج من مستوى الملايين إلى تريليونات، بينما كانت متطلبات القوة الحاسوبية في زيادة أسية. وفقًا للإحصائيات، تجاوزت تكلفة تدريب نموذج لغة متقدم 100 مليون دولار، حيث تُستخدم 90% منها في استئجار مجموعات GPU. ومع ذلك، عندما تركز الصناعة على "نموذج أكبر" و"شريحة أسرع"، فإن أزمة جانب العرض للبيانات تتسلل بهدوء.
لقد وصلت "البيانات العضوية" التي تولدها البشرية إلى سقف النمو. على سبيل المثال، تبلغ الكمية الإجمالية للبيانات النصية عالية الجودة المتاحة على الإنترنت والتي يمكن الزحف إليها حوالي 10^12 كلمة، بينما يتطلب تدريب نموذج يحتوي على مائة مليار معلمة حوالي 10^13 كلمة من البيانات. وهذا يعني أن مجموعة البيانات الحالية يمكن أن تدعم فقط تدريب 10 نماذج متساوية الحجم. والأكثر خطورة هو أن نسبة البيانات المكررة والمحتوى منخفض الجودة تتجاوز 60%، مما يضغط أكثر على إمدادات البيانات الفعالة. عندما يبدأ النموذج في "ابتلاع" البيانات التي ينتجها بنفسه، أصبحت تدهور أداء النموذج الناجم عن "تلوث البيانات" مصدر قلق في الصناعة.
تعود جذور هذه التناقضات إلى: أن صناعة الذكاء الاصطناعي طالما اعتبرت البيانات "موارد مجانية"، بدلاً من "أصول استراتيجية" تحتاج إلى رعاية دقيقة. لقد شكلت النماذج وقوة الحوسبة نظامًا سوقيًا ناضجًا، لكن إنتاج البيانات وتنظيفها والتحقق منها وتداولها لا يزال في "عصر الهمجية". ستكون العقد القادم من الذكاء الاصطناعي "عقد البنية التحتية للبيانات"، وبيانات الشبكة المشفرة على السلسلة هي المفتاح لفك هذه المعضلة.
البيانات على السلسلة: قاعدة بيانات "سلوك الإنسان" الأكثر احتياجًا للذكاء الاصطناعي
في سياق الجوع للبيانات، تظهر البيانات على الشبكة المشفرة قيمة لا يمكن استبدالها. بالمقارنة مع بيانات الإنترنت التقليدية، تتمتع البيانات على السلسلة بواقع "تنسيق الحوافز" - كل معاملة، وكل تفاعل عقدي، وكل سلوك عنوان محفظة يرتبط مباشرة برأس المال الحقيقي، ولا يمكن التلاعب به. يمكن تعريف البيانات على السلسلة بأنها "البيانات الأكثر تركيزًا لسلوكيات تنسيق الحوافز البشرية على الإنترنت"، وتظهر بشكل خاص في ثلاثة أبعاد:
إشارات النية في العالم الحقيقي
تسجل بيانات السلسلة القرارات الناجمة عن التصويت بالأموال الحقيقية. على سبيل المثال، فإن تحويل الأصول من محفظة على منصة DEX، أو الرهن والإقراض على منصة الإقراض، أو تسجيل اسم نطاق، تعكس مباشرة حكم المستخدم على قيمة المشروع، وتفضيل المخاطر، واستراتيجيات تخصيص الأموال. هذه البيانات التي "تدعمها رأس المال" لها قيمة عالية في تدريب قدرة اتخاذ القرار للذكاء الاصطناعي مثل التنبؤات المالية، وتحليل السوق (. بالمقارنة، فإن البيانات التقليدية على الإنترنت مليئة بـ "الضجيج"، حيث لا يمكن لهذه البيانات أن تدرب نماذج ذكاء اصطناعي موثوقة، بل ستضلل حكم النموذج.
) سلسلة السلوك القابلة للتتبع
تتيح شفافية البلوكشين تتبع سلوك المستخدمين بالكامل. تاريخ المعاملات لعناوين المحفظة، البروتوكولات التي تم التفاعل معها، وتغيرات الأصول المحتفظ بها، تشكل "سلسلة سلوك" متماسكة. على سبيل المثال، من خلال تحليل عمليات عنوان معين في بروتوكولات DeFi من عام 2020 حتى الآن، يمكن للذكاء الاصطناعي التعرف بدقة على ما إذا كان "مستثمرًا طويل الأجل" أو "متداولًا للأرباح" أو "موفر سيولة"، وبناء صورة للمستخدم بناءً على ذلك. هذه البيانات السلوكية المنظمة، هي بالضبط "عينات استدلال بشري" التي تفتقر إليها نماذج الذكاء الاصطناعي الحالية.
الوصول "غير المصرح به" في النظام البيئي المفتوح
بخلاف الانغلاق في بيانات الشركات التقليدية، فإن البيانات على السلسلة مفتوحة ولا تحتاج إلى إذن. يمكن لأي مطور الحصول على البيانات الأصلية من خلال مستعرض blockchain أو واجهة برمجة تطبيقات البيانات، مما يوفر مصدر بيانات "بدون حواجز" لتدريب نماذج الذكاء الاصطناعي. ومع ذلك، فإن هذه الانفتاحية تجلب أيضًا تحديات: البيانات على السلسلة موجودة في شكل "سجل الأحداث"، وهي "إشارات خام" غير منظمة، تحتاج إلى التنظيف والتوحيد والربط لتكون قابلة للاستخدام من قبل نماذج الذكاء الاصطناعي. حاليًا، معدل "التحويل الهيكلي" للبيانات على السلسلة أقل من 5%، والعديد من الإشارات ذات القيمة العالية مدفونة في مليارات من الأحداث المجزأة.
Hyperdata Network: "نظام التشغيل" للبيانات على السلسلة
لحل مشكلة تجزئة البيانات على السلسلة، تم اقتراح "نظام تشغيل ذكي على السلسلة" جديد - وهو شبكة بيانات مصممة خصيصًا للذكاء الاصطناعي. الهدف الرئيسي هو تحويل الإشارات الموزعة على السلسلة إلى بيانات جاهزة للذكاء الاصطناعي منظمة وقابلة للتحقق وقابلة للتجميع في الوقت الحقيقي.
المخطوطة: معايير البيانات المفتوحة، تجعل الذكاء الاصطناعي "يفهم" عالم السلسلة
أحد أكبر نقاط الألم في البيانات على السلسلة هو "فوضى التنسيق" - تختلف تنسيقات سجلات الأحداث على سلاسل الكتل المختلفة، وقد تتغير بنية بيانات إصدارات مختلفة من نفس البروتوكول. Manuscript كمعيار مفتوح لهيكل البيانات، موحد تعريف البيانات على السلسلة وطرق وصفها. على سبيل المثال، قامت بتوحيد "سلوك تخزين المستخدم" في بيانات هيكلية تتضمن حقول staker_address و protocol_id و amount و timestamp و reward_token، مما يضمن أن نماذج الذكاء الاصطناعي لا تحتاج إلى التكيف مع تنسيقات بيانات سلاسل الكتل أو البروتوكولات المختلفة، بل يمكنها "فهم" المنطق التجاري خلف البيانات مباشرة.
تتمثل قيمة هذا التوحيد في تقليل تكاليف الاحتكاك في تطوير الذكاء الاصطناعي. افترض أن فريقًا يحتاج إلى تدريب "نموذج توقع سلوك مستخدمي DeFi"، في الطرق التقليدية، سيكون من الضروري توصيل واجهات برمجة التطبيقات (API) لمجموعة من سلاسل الكتل بشكل منفصل، وكتابة نصوص تحليلية مختلفة؛ بينما استنادًا إلى Manuscript، تم معالجة جميع البيانات على السلاسل وفقًا لمعايير موحدة مسبقًا، حيث يمكن للمطورين استدعاء "سجلات رهن المستخدم" و"سجلات تقديم السيولة"، وغيرها من البيانات الهيكلية بشكل مباشر، مما يقلل بشكل كبير من فترة تدريب النموذج.
المتطلبات الأساسية لنموذج الذكاء الاصطناعي للبيانات هي "موثوق" - إذا تم العبث أو تلويث بيانات التدريب، فإن مخرجات النموذج ستكون بلا قيمة. تضمن شبكة Hyperdata صحة البيانات من خلال آلية AVS###Active Validator Set( على الإثريوم. AVS هو مكون موسع لطبقة الإجماع على الإثريوم، يتكون من عدد كبير من عقد التحقق المرهونة بالـ ETH، والتي تتحمل مسؤولية التحقق من سلامة و دقة البيانات على السلسلة. عندما تعالج شبكة Hyperdata حدثًا على السلسلة، تتحقق عقد AVS من قيم التجزئة، ومعلومات التوقيع، وحالة السلسلة بشكل متقاطع لضمان أن البيانات الهيكلية الناتجة تتطابق تمامًا مع البيانات الأصلية على السلسلة.
تعمل آلية التحقق من "ضمان الاقتصاد المشفر" هذه على حل مشكلة الثقة في التحقق المركزي التقليدي للبيانات. على سبيل المثال، إذا كانت إحدى شركات الذكاء الاصطناعي تستخدم بيانات على السلسلة مقدمة من وكالة مركزية، فيجب عليها أن تثق بأن الوكالة لم تُعدل البيانات؛ بينما باستخدام شبكة Hyperdata، يتم تأكيد صحة البيانات من خلال شبكة من المدققين اللامركزيين، وأي تصرفات تعديل ستؤدي إلى تفعيل آلية العقوبة في العقد الذكي.
) Chainbase DA: طبقة توفر البيانات ذات السعة العالية
نموذج الذكاء الاصطناعي، وخاصة تطبيقات الذكاء الاصطناعي التفاعلية في الوقت الحقيقي ### مثل روبوتات التداول، خدمة العملاء الذكية (، تحتاج إلى إمدادات بيانات ذات زمن انتقال منخفض وسعة معالجة عالية. تم تصميم طبقة Chainbase DA ) لتلبية هذه الطلبات، من خلال تحسين خوارزميات ضغط البيانات وبروتوكولات النقل، لتحقيق معالجة في الوقت الحقيقي لعشرات الآلاف من الأحداث على السلسلة في الثانية. على سبيل المثال، عندما تحدث صفقة كبيرة في DEX معين، يمكن أن تكتمل Chainbase DA في استخراج البيانات وتوحيدها والتحقق منها في غضون ثانية واحدة، وتقوم بدفع "إشارة الصفقة الكبيرة" المهيكلة إلى نماذج الذكاء الاصطناعي المشتركين، مما يمكنهم من تعديل استراتيجيات التداول في الوقت المناسب.
الخلفية وراء السعة العالية هي الهيكلية المعيارية - تقوم Chainbase DA بفصل تخزين البيانات عن الحساب، حيث يتولى شبكة العقد الموزعة تخزين البيانات، ويتم تنفيذ الحساب من خلال Rollup خارج السلسلة، مما يتجنب عنق الزجاجة في أداء blockchain نفسه. يتيح هذا التصميم لشبكة Hyperdata دعم متطلبات البيانات في الوقت الفعلي لتطبيقات الذكاء الاصطناعي على نطاق واسع، مثل توفير خدمات البيانات على السلسلة عبر الإنترنت في نفس الوقت لعدد كبير من وكلاء المعاملات.
عصر DataFi: عندما تصبح البيانات "رأس المال" القابل للتداول
الهدف النهائي لشبكة Hyperdata هو دفع صناعة الذكاء الاصطناعي إلى عصر DataFi - حيث لم تعد البيانات مجرد "مواد تدريب" سلبية، بل أصبحت "رأس مال" نشط يمكن تسعيره وتداوله وزيادة قيمته. تمامًا كما يتم تسعير الكهرباء بالكيلووات، ويتم تسعير قوة الحوسبة بـ FLOPS، يجب أيضًا تقييم البيانات وتصنيفها وتقديرها. يعتمد تحقيق هذه الرؤية على تحويل شبكة Hyperdata البيانات إلى أربع خصائص أساسية:
( الهيكلة: من "الإشارة الأصلية" إلى "الأصول القابلة للاستخدام"
تشبه البيانات غير المعالجة على السلسلة "النفط الخام"، حيث يجب معالجتها لتصبح "البنزين". تقوم شبكة Hyperdata بتحويلها إلى بيانات منظمة من خلال معيار Manuscript، مثل تحليل "العنوان المحفظة A في الوقت T أودع X من الرموز في البروتوكول B" إلى بيانات متعددة الأبعاد تحتوي على صورة المستخدم، وخصائص البروتوكول، ونوع الأصول، وطابع الزمن. تجعل هذه الهيكلية البيانات قابلة للاستدعاء مباشرة بواسطة نماذج الذكاء الاصطناعي، تمامًا كما هو الحال عند استدعاء واجهة برمجة التطبيقات.
) قابلة للتجميع: "لبنات ليغو" للبيانات
في Web3، أدت "الترابطية" إلى انفجار DeFi. تقوم شبكة Hyperdata بإدخال هذه الفكرة في مجال البيانات: يمكن دمج البيانات الهيكلية بحرية مثل مكعبات ليغو. على سبيل المثال، يمكن للمطورين دمج "سجلات الرهانات الخاصة بالمستخدم" مع "بيانات تقلب الأسعار" و"عدد الإشارات الاجتماعية" لتدريب "نموذج توقع مشاعر سوق DeFi". هذه الترابطية توسع بشكل كبير حدود تطبيق البيانات، مما يجعل الابتكار في الذكاء الاصطناعي غير مقيد بمصدر بيانات واحد.
قابل للتحقق: "إسناد ائتماني" البيانات
من خلال البيانات الهيكلية التي تم التحقق منها بواسطة AVS، سيتم إنشاء "بصمة بيانات" فريدة ### وقيمة الهاش ###، وتخزينها على البلوكشين. يمكن لأي تطبيق AI أو مطور يستخدم هذه البيانات التحقق من صحة البيانات من خلال التحقق من قيمة الهاش. هذه "القابلية للتحقق" تمنح البيانات خصائص ائتمانية - على سبيل المثال، يمكن تتبع الدقة التاريخية لمجموعة البيانات المسمى "إشارة تداول عالية الجودة" من خلال سجلات الهاش على البلوكشين، حيث لا يحتاج المستخدم إلى الثقة بمقدم مجموعة البيانات، بل يكفي التحقق من بصمة البيانات لتقييم جودة البيانات.
( قابل للتحويل: "تحقيق قيمة البيانات"
في عصر DataFi، يمكن لمزودي البيانات تحقيق دخل مباشر من البيانات الهيكلية من خلال شبكة Hyperdata. على سبيل المثال، طور فريق ما إشارة "تحذير من ثغرات العقود الذكية" من خلال تحليل البيانات على السلسلة، ويمكنهم تغليف هذه الإشارة كخدمة API، وتحصيل رسوم حسب عدد الاستدعاءات؛ يمكن للمستخدمين العاديين أيضًا تفويض مشاركة بياناتهم المجهولة على السلسلة، والحصول على مكافآت رموز البيانات. في هذا النظام البيئي، يتم تحديد قيمة البيانات من خلال العرض والطلب في السوق - قد تكون إشارات التداول ذات الدقة العالية ذات أسعار أعلى، بينما يمكن أن يتم تحصيل رسوم على البيانات الأساسية لسلوك المستخدم حسب الاستخدام.
الخاتمة: ثورة البيانات, العقد القادم للذكاء الاصطناعي
عندما نتحدث عن مستقبل الذكاء الاصطناعي، غالبًا ما نركز على "مستوى ذكاء" النماذج، متجاهلين "تربة البيانات" التي تدعم الذكاء. تكشف شبكة Hyperdata عن حقيقة أساسية: تطور الذكاء الاصطناعي هو في جوهره تطور بنية البيانات التحتية. من "حدود" البيانات التي يولدها البشر إلى "اكتشاف القيمة" للبيانات على السلسلة، ومن "فوضى" الإشارات المتناثرة إلى "نظام" البيانات المهيكلة، ومن "الموارد المجانية" للبيانات إلى "الأصول الرأسمالية" في DataFi، هذه الشبكة تعيد تشكيل المنطق الأساسي لصناعة الذكاء الاصطناعي.
في عصر DataFi هذا، ستصبح البيانات جسرًا يربط بين الذكاء الاصطناعي والعالم الحقيقي - حيث يشعر وكلاء التداول بمشاعر السوق من خلال البيانات على السلسلة، وتحسن التطبيقات المستقلة خدماتها من خلال بيانات سلوك المستخدم، بينما يحصل المستخدمون العاديون على عائد مستمر من خلال مشاركة البيانات. تمامًا كما أدت شبكة الكهرباء إلى اندلاع الثورة الصناعية، فإن شبكة الحوسبة تؤدي إلى ثورة الإنترنت، فإن شبكة Hyperdata تثير "ثورة البيانات" في الذكاء الاصطناعي.
التطبيقات الأصلية للذكاء الاصطناعي من الجيل التالي لا تحتاج فقط إلى نماذج أو محافظ، بل تحتاج أيضًا إلى بيانات قابلة للبرمجة، وغير موثوقة، وعالية الإشارة. عندما تُمنح البيانات أخيرًا القيمة التي تستحقها، يمكن للذكاء الاصطناعي حقًا أن يطلق القوة التي تغير العالم.