فناوری غیرمتمرکز مرزهای بین هوش مصنوعی و بلاک‌چین را محو می‌کند و ناقوس مرگ هوش مصنوعی جعبه سیاه را به صدا درمی‌آورد

تاریخ: 7 اردیبهشت 1404

فناوری غیرمتمرکز با ترکیب هوش مصنوعی و بلاک‌چین، شفافیت و اعتماد را به سیستم‌های هوش مصنوعی می‌آورد و ابهامات جعبه سیاه هوش مصنوعی را از بین می‌برد.

ظهور هوش مصنوعی به شکلی قانع‌کننده، ماهیت دوگانه فناوری را به نمایش گذاشته است: هم نیرویی برای پیشرفت و هم منبعی برای خطرات بزرگ. هوش مصنوعی خروجی را افزایش می‌دهد و قابلیت‌های محاسباتی را بهبود می‌بخشد، اما در عین حال اطلاعات نادرست را منتشر می‌کند و گفتمان عمومی را دستکاری می‌کند، همانطور که ظهور دیپ‌فیک‌ها به طور قانع‌کننده‌ای نشان داده است.
سیستم‌های هوش مصنوعی با چالش‌های سیستمی روبرو هستند، به طوری که برخی از مدل‌ها نرخ خطای نسبتاً بالایی را نشان می‌دهند که به طور ضعیفی بر کل صنعت تأثیر می‌گذارد و اعتماد عمومی را تضعیف می‌کند. پیامدهای محدودیت‌های هوش مصنوعی می‌تواند در وسایل نقلیه خودران، مراقبت‌های بهداشتی و صنایع پرخطر به طور کلی وخیم باشد. تغییرات جزئی بصری می‌تواند باعث شود وسایل نقلیه خودران اشتباهات فاجعه‌باری مرتکب شوند و خطاهای کوچک داده می‌تواند منجر به تشخیص نادرست یا نادیده گرفتن خطرات شود.
هوش مصنوعی قابل تأیید با افزایش آگاهی عمومی از جنبه‌های منفی هوش مصنوعی جعبه سیاه، به یک روند ملموس تبدیل می‌شود. فراتر از یک کلمه کلیدی، به توسعه سیستم‌های هوش مصنوعی پاسخگو، قابل حسابرسی و شفاف اشاره دارد. تضمین می‌کند که مدل‌های هوش مصنوعی و تصمیمات آن‌ها می‌توانند روشن و تأیید شوند تا کاربران مستقیم و ذینفعان بتوانند به آن‌ها اعتماد کنند. همچنین به سازمان‌ها اجازه می‌دهد تا فرآیندهای تصمیم‌گیری سیستم‌های هوش مصنوعی را ردیابی کنند، الگوریتم‌ها و داده‌های مورد استفاده را تأیید کنند و تأیید کنند که بدون خطا یا تعصب کار می‌کنند.
در مقابل، مفهوم هوش مصنوعی جعبه سیاه به سیستم‌هایی اطلاق می‌شود که فرآیندهای تصمیم‌گیری داخلی آن‌ها به راحتی قابل دسترسی یا درک نیستند. خروجی سیستم‌ها، که از طریق محاسبات پیچیده به دست می‌آید، غیرقابل ردیابی است زیرا هیچ بینشی در مورد فرآیندهای اساسی وجود ندارد. کاربران یک تصمیم یا خروجی را بدون درک روشنی از نحوه رسیدن هوش مصنوعی به آن نتیجه دریافت می‌کنند.
به جمع ما بپیوندید تا انقلاب ارزهای دیجیتال را به نمایش بگذاریم. اکنون مشترک شوید تا اخبار روزانه و به‌روزرسانی‌های بازار را مستقیماً در صندوق ورودی خود دریافت کنید، به همراه میلیون‌ها مشترک دیگر ما (درست است، میلیون‌ها نفر ما را دوست دارند!) - منتظر چه هستید؟
فناوری بلاک‌چین به عنوان یک متحد قدرتمند برای پلتفرم‌های هوش مصنوعی در تلاش برای دستیابی به تصمیم‌گیری شفاف ظاهر شده است. Kite AI و EigenLayer اخیراً از مشارکت خود با هدف تقویت اعتماد و امنیت در چارچوب هوش مصنوعی غیرمتمرکز خبر دادند، که شامل ادغام فناوری restaking EigenLayer در بازار دارایی هوش مصنوعی مبتنی بر بلاک‌چین Kite AI است. این همکاری، امنیت مقیاس‌پذیر و تأیید بدون اعتماد محاسبات هوش مصنوعی را در اولویت قرار می‌دهد و در نتیجه محیطی ایجاد می‌شود که در آن داده‌ها، مدل‌ها و عوامل هوش مصنوعی می‌توانند به عملکرد و یکپارچگی تضمین‌شده با پشتیبانی مکانیسم‌های امنیتی اثبات‌شده اتریوم دست یابند.
Kite AI یک بلاک‌چین لایه ۱ سازگار با EVM است که یک بازار را اداره می‌کند که در آن افراد می‌توانند ابزارها و مدل‌های هوش مصنوعی را بخرند، بفروشند یا استفاده کنند. EigenLayer («لایه خود») با اجازه دادن به هر کسی برای ساختن بر روی یک شبکه اعتماد غیرمتمرکز، آن را تکمیل می‌کند. سیستم restaking آن با استفاده از تنظیمات مورد اعتماد اتریوم به روشی جدید به تقویت امنیت کمک می‌کند. آنها با هم اطمینان می‌دهند که نتایج مدل‌های هوش مصنوعی می‌توانند بدون نیاز به واسطه تأیید و مورد اعتماد قرار گیرند و این سیستم مقیاس‌پذیر است، به این معنی که می‌تواند رشد کند و فعالیت بیشتری را مدیریت کند.
Kite AI دارایی‌ها و خروجی‌های هوش مصنوعی را به صورت غیرمتمرکز با استفاده از چارچوب سرویس تأییدپذیر مستقل (AVS) EigenLayer تأیید می‌کند. به طور خاص، اعتبارسنجی‌های EigenLayer وظایف تأیید تخصصی را برای تأیید صحت خروجی‌های مدل هوش مصنوعی و اینکه دارایی‌های هوش مصنوعی فهرست‌شده معیارهای مشخصی را برآورده می‌کنند، انجام می‌دهند. این بدان معناست که کاربران و توسعه‌دهندگان Kite AI اطمینان بیشتری دریافت می‌کنند، زیرا هر دارایی یا نتیجه هوش مصنوعی به طور مستقل توسط یک شبکه اعتبارسنجی سهام‌گذاری‌شده توزیع‌شده به جای تکیه بر ادعاهای ارائه‌دهنده دارایی تأیید می‌شود.
این مشارکت مرزهای بین هوش مصنوعی و بلاک‌چین را محو می‌کند و به کاهش خطرات قابل توجه مرتبط با هوش مصنوعی کمک می‌کند. انسان‌ها زمانی ایده ابزارهای متن‌باز که متن، تصاویر، صدا و فیلم‌های قانع‌کننده‌ای را با سرعت نور تولید می‌کنند، یک نوشدارو می‌دانستند. با این حال، شیوع هوش مصنوعی نگرانی‌های قابل توجهی را در مورد اعتبار و اصالت ایجاد کرده است و پیامدهای تمایل ابزارهای جعبه سیاه به «توهم‌زایی» می‌تواند شدید باشد، به ویژه برای سازمان‌هایی که در تلاش برای برجسته شدن در بازارهای رقابتی هستند.
به بیان ساده، ChatGPT، Claude، Bard، Perplexity و دیگران می‌توانند چیزهایی را جعل کنند. این ابزارها می‌توانند محتوایی را تولید کنند که ریشه در حقایق ندارد، بلکه در حدس و گمان است. آنها در تلاش خود برای برآورده کردن درخواست یا اعلان کاربر در اسرع وقت و به نزدیک‌ترین شکل ممکن، زمینه و دقت واقعی را نادیده می‌گیرند. مسئله مسئولیت‌پذیری در قبال نتیجه حتی نگران‌کننده‌تر است. چارچوب‌های قانونی فعلی معمولاً سازندگان LLMهای مدرن را از نظر کیفری در قبال اقدامات انجام شده توسط کاربران مستقیم ابزارها مسئول نمی‌دانند. هیچ چیزی مانع از این نمی‌شود که آنها کاربران یا خود ابزارها را به دلیل خروجی‌های نادرست خود سرزنش کنند.
با وجود شیوع هوش مصنوعی، این ابزارها آزمایشی در نظر گرفته می‌شوند، یعنی هنوز در حال «یادگیری» هستند. در پایان روز، شخصی که از آنها استفاده می‌کند مسئولیت هرگونه پیامد ناشی از عمل بر اساس خروجی آنها را بر عهده می‌گیرد. آنها مسئول درک محدودیت‌های خود هستند.
سیستم‌های هوش مصنوعی برای آموزش و بهره‌برداری به داده متکی هستند، بنابراین ارائه‌دهندگان داده باید در قبال صحت و کیفیت داده‌ها پاسخگو باشند. آنها باید اطمینان حاصل کنند که مقررات مربوط به حریم خصوصی را رعایت می‌کند و از نظر اخلاقی تهیه شده است. منابع داده غیرمتمرکز و ابزارهای تأیید خطر داده‌های نادرست یا مغرضانه را کاهش می‌دهند زیرا بینشی را در مورد تصمیم‌گیری و خروجی ارائه می‌دهند. آنها می‌توانند به رفع عدم وجود safeguards مناسب و اجرای متفکرانه کمک کنند و نقش مهمی در مبارزه با اطلاعات نادرست ایفا کنند، که به راحتی تداوم می‌یابد، با توجه به اینکه چقدر قانع‌کننده ارائه می‌شود. در غیر این صورت، هیچ راهی برای کاهش خطرات ناشی از این واقعیت وجود ندارد که مدل‌های هوش مصنوعی بر روی داده‌های جمع‌آوری‌شده آموزش داده می‌شوند، بر اساس اعلان‌ها عمل می‌کنند و فاقد شهود برای تعیین اینکه آیا داده‌ها یا اعلان‌ها (یا هر دو) مغرضانه، مضر یا بی‌اطلاع از شواهد هستند، می‌باشند.
ادغام بلاک‌چین و هوش مصنوعی به عنوان آخرین و گاهی تنها خط دفاعی ظاهر می‌شود. یک مثال واقعی را در نظر بگیرید: یک سیستم هوش مصنوعی تصمیمی می‌گیرد که تأثیر منفی بر یک کسب‌وکار می‌گذارد و کسب‌وکار از تکیه بر آن بدون چون و چرا رنج می‌برد. اینکه آیا فروشنده یا توسعه‌دهنده هوش مصنوعی مسئولیت خطای ناشی از نقص سیستم را بر عهده می‌گیرد یا خیر، جای سوال دارد. احتمالاً این مسئولیت بر عهده کارمندی خواهد بود که بدون درک نحوه کارکرد آن از این ابزار استفاده کرده است و احتمالاً بر عهده مدیر آنها به دلیل عدم نظارت بر آنها خواهد بود. ممکن است همه چیز با اخراج کارمند به پایان برسد، اما یک خطای بزرگ کل سازمان را تحت تأثیر قرار می‌دهد.
<i>سلب مسئولیت: این مقاله فقط برای اهداف اطلاعاتی ارائه شده است. این مقاله به عنوان مشاوره حقوقی، مالیاتی، سرمایه‌گذاری، مالی یا سایر مشاوره‌ها ارائه یا در نظر گرفته نشده است.</i>

اشتراک‌گذاری در شبکه‌های اجتماعی:

ارسال نظر


جهت بروزرسانی تصویر امنیتی بر روی آن کلیک کنید