وب۳: بازتعریف پول با ترکیب کدهای برنامهنویسی و ارزشهای جامعهمحور

تاریخ: 7 اردیبهشت 1404
فناوری غیرمتمرکز با ترکیب هوش مصنوعی و بلاکچین، شفافیت و اعتماد را به سیستمهای هوش مصنوعی میآورد و ابهامات جعبه سیاه هوش مصنوعی را از بین میبرد.
ظهور هوش مصنوعی به شکلی قانعکننده، ماهیت دوگانه فناوری را به نمایش گذاشته است: هم نیرویی برای پیشرفت و هم منبعی برای خطرات بزرگ. هوش مصنوعی خروجی را افزایش میدهد و قابلیتهای محاسباتی را بهبود میبخشد، اما در عین حال اطلاعات نادرست را منتشر میکند و گفتمان عمومی را دستکاری میکند، همانطور که ظهور دیپفیکها به طور قانعکنندهای نشان داده است.
سیستمهای هوش مصنوعی با چالشهای سیستمی روبرو هستند، به طوری که برخی از مدلها نرخ خطای نسبتاً بالایی را نشان میدهند که به طور ضعیفی بر کل صنعت تأثیر میگذارد و اعتماد عمومی را تضعیف میکند. پیامدهای محدودیتهای هوش مصنوعی میتواند در وسایل نقلیه خودران، مراقبتهای بهداشتی و صنایع پرخطر به طور کلی وخیم باشد. تغییرات جزئی بصری میتواند باعث شود وسایل نقلیه خودران اشتباهات فاجعهباری مرتکب شوند و خطاهای کوچک داده میتواند منجر به تشخیص نادرست یا نادیده گرفتن خطرات شود.
هوش مصنوعی قابل تأیید با افزایش آگاهی عمومی از جنبههای منفی هوش مصنوعی جعبه سیاه، به یک روند ملموس تبدیل میشود. فراتر از یک کلمه کلیدی، به توسعه سیستمهای هوش مصنوعی پاسخگو، قابل حسابرسی و شفاف اشاره دارد. تضمین میکند که مدلهای هوش مصنوعی و تصمیمات آنها میتوانند روشن و تأیید شوند تا کاربران مستقیم و ذینفعان بتوانند به آنها اعتماد کنند. همچنین به سازمانها اجازه میدهد تا فرآیندهای تصمیمگیری سیستمهای هوش مصنوعی را ردیابی کنند، الگوریتمها و دادههای مورد استفاده را تأیید کنند و تأیید کنند که بدون خطا یا تعصب کار میکنند.
در مقابل، مفهوم هوش مصنوعی جعبه سیاه به سیستمهایی اطلاق میشود که فرآیندهای تصمیمگیری داخلی آنها به راحتی قابل دسترسی یا درک نیستند. خروجی سیستمها، که از طریق محاسبات پیچیده به دست میآید، غیرقابل ردیابی است زیرا هیچ بینشی در مورد فرآیندهای اساسی وجود ندارد. کاربران یک تصمیم یا خروجی را بدون درک روشنی از نحوه رسیدن هوش مصنوعی به آن نتیجه دریافت میکنند.
به جمع ما بپیوندید تا انقلاب ارزهای دیجیتال را به نمایش بگذاریم. اکنون مشترک شوید تا اخبار روزانه و بهروزرسانیهای بازار را مستقیماً در صندوق ورودی خود دریافت کنید، به همراه میلیونها مشترک دیگر ما (درست است، میلیونها نفر ما را دوست دارند!) - منتظر چه هستید؟
فناوری بلاکچین به عنوان یک متحد قدرتمند برای پلتفرمهای هوش مصنوعی در تلاش برای دستیابی به تصمیمگیری شفاف ظاهر شده است. Kite AI و EigenLayer اخیراً از مشارکت خود با هدف تقویت اعتماد و امنیت در چارچوب هوش مصنوعی غیرمتمرکز خبر دادند، که شامل ادغام فناوری restaking EigenLayer در بازار دارایی هوش مصنوعی مبتنی بر بلاکچین Kite AI است. این همکاری، امنیت مقیاسپذیر و تأیید بدون اعتماد محاسبات هوش مصنوعی را در اولویت قرار میدهد و در نتیجه محیطی ایجاد میشود که در آن دادهها، مدلها و عوامل هوش مصنوعی میتوانند به عملکرد و یکپارچگی تضمینشده با پشتیبانی مکانیسمهای امنیتی اثباتشده اتریوم دست یابند.
Kite AI یک بلاکچین لایه ۱ سازگار با EVM است که یک بازار را اداره میکند که در آن افراد میتوانند ابزارها و مدلهای هوش مصنوعی را بخرند، بفروشند یا استفاده کنند. EigenLayer («لایه خود») با اجازه دادن به هر کسی برای ساختن بر روی یک شبکه اعتماد غیرمتمرکز، آن را تکمیل میکند. سیستم restaking آن با استفاده از تنظیمات مورد اعتماد اتریوم به روشی جدید به تقویت امنیت کمک میکند. آنها با هم اطمینان میدهند که نتایج مدلهای هوش مصنوعی میتوانند بدون نیاز به واسطه تأیید و مورد اعتماد قرار گیرند و این سیستم مقیاسپذیر است، به این معنی که میتواند رشد کند و فعالیت بیشتری را مدیریت کند.
Kite AI داراییها و خروجیهای هوش مصنوعی را به صورت غیرمتمرکز با استفاده از چارچوب سرویس تأییدپذیر مستقل (AVS) EigenLayer تأیید میکند. به طور خاص، اعتبارسنجیهای EigenLayer وظایف تأیید تخصصی را برای تأیید صحت خروجیهای مدل هوش مصنوعی و اینکه داراییهای هوش مصنوعی فهرستشده معیارهای مشخصی را برآورده میکنند، انجام میدهند. این بدان معناست که کاربران و توسعهدهندگان Kite AI اطمینان بیشتری دریافت میکنند، زیرا هر دارایی یا نتیجه هوش مصنوعی به طور مستقل توسط یک شبکه اعتبارسنجی سهامگذاریشده توزیعشده به جای تکیه بر ادعاهای ارائهدهنده دارایی تأیید میشود.
این مشارکت مرزهای بین هوش مصنوعی و بلاکچین را محو میکند و به کاهش خطرات قابل توجه مرتبط با هوش مصنوعی کمک میکند. انسانها زمانی ایده ابزارهای متنباز که متن، تصاویر، صدا و فیلمهای قانعکنندهای را با سرعت نور تولید میکنند، یک نوشدارو میدانستند. با این حال، شیوع هوش مصنوعی نگرانیهای قابل توجهی را در مورد اعتبار و اصالت ایجاد کرده است و پیامدهای تمایل ابزارهای جعبه سیاه به «توهمزایی» میتواند شدید باشد، به ویژه برای سازمانهایی که در تلاش برای برجسته شدن در بازارهای رقابتی هستند.
به بیان ساده، ChatGPT، Claude، Bard، Perplexity و دیگران میتوانند چیزهایی را جعل کنند. این ابزارها میتوانند محتوایی را تولید کنند که ریشه در حقایق ندارد، بلکه در حدس و گمان است. آنها در تلاش خود برای برآورده کردن درخواست یا اعلان کاربر در اسرع وقت و به نزدیکترین شکل ممکن، زمینه و دقت واقعی را نادیده میگیرند. مسئله مسئولیتپذیری در قبال نتیجه حتی نگرانکنندهتر است. چارچوبهای قانونی فعلی معمولاً سازندگان LLMهای مدرن را از نظر کیفری در قبال اقدامات انجام شده توسط کاربران مستقیم ابزارها مسئول نمیدانند. هیچ چیزی مانع از این نمیشود که آنها کاربران یا خود ابزارها را به دلیل خروجیهای نادرست خود سرزنش کنند.
با وجود شیوع هوش مصنوعی، این ابزارها آزمایشی در نظر گرفته میشوند، یعنی هنوز در حال «یادگیری» هستند. در پایان روز، شخصی که از آنها استفاده میکند مسئولیت هرگونه پیامد ناشی از عمل بر اساس خروجی آنها را بر عهده میگیرد. آنها مسئول درک محدودیتهای خود هستند.
سیستمهای هوش مصنوعی برای آموزش و بهرهبرداری به داده متکی هستند، بنابراین ارائهدهندگان داده باید در قبال صحت و کیفیت دادهها پاسخگو باشند. آنها باید اطمینان حاصل کنند که مقررات مربوط به حریم خصوصی را رعایت میکند و از نظر اخلاقی تهیه شده است. منابع داده غیرمتمرکز و ابزارهای تأیید خطر دادههای نادرست یا مغرضانه را کاهش میدهند زیرا بینشی را در مورد تصمیمگیری و خروجی ارائه میدهند. آنها میتوانند به رفع عدم وجود safeguards مناسب و اجرای متفکرانه کمک کنند و نقش مهمی در مبارزه با اطلاعات نادرست ایفا کنند، که به راحتی تداوم مییابد، با توجه به اینکه چقدر قانعکننده ارائه میشود. در غیر این صورت، هیچ راهی برای کاهش خطرات ناشی از این واقعیت وجود ندارد که مدلهای هوش مصنوعی بر روی دادههای جمعآوریشده آموزش داده میشوند، بر اساس اعلانها عمل میکنند و فاقد شهود برای تعیین اینکه آیا دادهها یا اعلانها (یا هر دو) مغرضانه، مضر یا بیاطلاع از شواهد هستند، میباشند.
ادغام بلاکچین و هوش مصنوعی به عنوان آخرین و گاهی تنها خط دفاعی ظاهر میشود. یک مثال واقعی را در نظر بگیرید: یک سیستم هوش مصنوعی تصمیمی میگیرد که تأثیر منفی بر یک کسبوکار میگذارد و کسبوکار از تکیه بر آن بدون چون و چرا رنج میبرد. اینکه آیا فروشنده یا توسعهدهنده هوش مصنوعی مسئولیت خطای ناشی از نقص سیستم را بر عهده میگیرد یا خیر، جای سوال دارد. احتمالاً این مسئولیت بر عهده کارمندی خواهد بود که بدون درک نحوه کارکرد آن از این ابزار استفاده کرده است و احتمالاً بر عهده مدیر آنها به دلیل عدم نظارت بر آنها خواهد بود. ممکن است همه چیز با اخراج کارمند به پایان برسد، اما یک خطای بزرگ کل سازمان را تحت تأثیر قرار میدهد.
<i>سلب مسئولیت: این مقاله فقط برای اهداف اطلاعاتی ارائه شده است. این مقاله به عنوان مشاوره حقوقی، مالیاتی، سرمایهگذاری، مالی یا سایر مشاورهها ارائه یا در نظر گرفته نشده است.</i>
ارسال نظر