Site icon آکادمی آمانج

Responsible AI یا قوانین هوش مصنوعی کجا هستند؟

قوانین هوش مصنوعی

احتمالا با شخصیت دکتر اختاپوس در فیلم مرد عنکبوتی آشنا هستید. صحبت از تکنولوژی هوش مصنوعی یعنی همان حرکت آرمانی که دکتر برای رفع محدودیت‌های خود با دستگاهی که ساخت انجام داد. در این مقاله می‌خواهیم بررسی کنیم که اگر چیپ کنترل دستگاه دکتر اختاپوس شکست و او را به یک غول تبدیل کرد باید چه کنیم؟ نتیجه چنین رخدادی بر گردن چه کسی است، آیا اصلا باید اجازه تولید چنین چیزی را داد یا نه؟ اینجاست که Responsible AI به کمک ما می‌آید. ما در این مقاله از آکادمی آمانج می‌خواهیم ببینیم آیا هنوز قوانین هوش مصنوعی متولی خاصی دارد؟

 

 

حقوق هوش مصنوعی چیست؟

در نظر خیلی از مردم هوش مصنوعی حرکتی آرمانی و رو به‌جلو در دنیایی است که با کمک‌‌ تکنولوژی هیچ محدودیتی در کره خاکی ندارند. افراد دیگری هم هستند که به هوش مصنوعی با مثبت اندیشی کمتری نگاه می‌کنند. بسیاری از نکات مثل تصمیم‌های اشتباه یا از بین رفتن برخی از مشاغل و نبود حریم خصوصی و بحث امینت داده‌ها از جمله این موارد است که در فکر این بخش مرتب هشدار می‌دهد. این‌جاست که فقدان قانون نمایان می‌شود. قوانین هوش مصنوعی درواقع راهی برای پاسخگویی به این مسائل و مسئولیت‌پذیر کردن شرکت‌های استفاده‌کننده از این تکنولوژی است.

 


بیشتر بخوانید: “نیمه‌ تاریک هوش مصنوعی و ماشین لرنینگ


 

هوش مصنوعی چیست و چرا به قانون نیاز دارد؟

به نظرم حالا زمان آن رسیده که به‌صورت متمرکز جواب این سوال را بدهیم (مگر هوش مصنوعی چیست که نیاز به قانون و مسئولیت‌پذیری دارد؟)

وقتی درمورد AI حرف می‌زنیم منظورمان مدلی از ماشین لرنینگ است که در پروداکت‌های مختلف اجرا می‌شود. مثلا خودروهای بدون سرنشین باید به‌صورت خودکار مسیر و چالش‌های احتمالی موجود در آن را تشخیص و تصمیم دقیق بدون دخالت انسان بگیرند. آن‌ها داده‌های به‌دست آورده از حسگرهای مختلف را دریافت، تحلیل و خیلی از مواقع باید در کمتر از چند صدم ثانیه تصمیمی دقیق بگیرند.

مثلا فرض کنید اتومبیل هوشمند تشخیص می‌دهد شی خاصی جلو حرکتش را گرفته است، در وتکنش به این مشکل خودرو باید ابتدا تشخیص دهد آن شی چیست، دوم باید تصمیم بگیرد چه عکس‌العملی برای ادامه مسیر از خود نشان دهد. آیا باید توقف کند یا به چپ بپیچد؟ درصورت ترمز کامل، خودرو پشت سر چه شرایطی دارد و حرکت به راست چه نتیجه‌ای خواهد داشت؟

 

 

احتمالا تا همین‌جا قانع شده‌اید که این سیستم چقدر پیچیده و خاص است و باید شرایط و قوانین و مقررات خاص خود را داشته باشد وگرنه جولان آن‌ها به‌صورت فراگیر خصوصا در صنایع، آثار مخربی در جامعه انسانی به‌جا می‌گذارد.

شما می‌توانید همین موضوع خودرو را به سلاح‌های نظامی، وسایل حمل‌ونقل عمومی‌ و خصوصی، حتی گجت‌های حوزه تکنولوژی و چالشی‌ترین بحث هوش مصنوعی یعنی ربات انسان‌نما تعمیم دهید تا متوجه خلأ بسیار بزرگ ماجرا شوید. Responsible AI یا قوانین هوش مصنوعی هدفی جز مسئولیت‌پذیر کردن این علم و دنیای بزرگش ندارد.

 

 

وقتی حرف از Responsible AI می‌زنیم منظورمان چیست؟

جوامع مختلف تعاریف متفاوت و روش‌های مختلفی در تفسیر و استفاده از کلمه “قانون” دارند. خیلی از قوانین باعث تخریب و خیلی دیگر به رشد و ترقی زمین کمک می‌کنند.

Responsible AI بهتر است با در نظر داشتن دموکراسی و اخلاق، تدوین و جزییاتی مثل نحوه ارزیابی داده‌ها و نظارت و استقرار مدل‌های هوش مصنوعی در پلتفر‌ها و محصولات مختلف به آن اضافه شود. علاوه‌بر این می‌تواند مشخص کند که درصورت بروز اختلال یا مشکل در زندگی مردم، چه کسی مسئول است.

تفسیرهای مختلفی از قوانین هوش مصنوعی وجود دارد، اما هدف مشترک همه آن‌ها رسیدن به نتیجه‌ای منصفانه برای رشد بشر کنار سیستمی تفسیرپذیر، معتدل، امن و قابل اعتماد است.

 

 

هدف از نوشتن قوانین هوش مصنوعی چیست؟

هنوز بعد از سال‌ها رشد و بالندگی این صنعت، قوانین خاصی برای آن نوشته نشده است. در ادامه به بررسی اهداف احتمالی که Responsible AI باید دنبال کنند، می‌پردازیم.

 

۱. کمک به تفسیرپذیر کردن هوش مصنوعی

اولین مورد، تفسیرپذیر بودن است. درواقع منظور از تفسیرپذیری در مدل هوش مصنوعی، توضیح دلایل و یا چگونگی نحوه کار کردن آن مدل است. فکر کنید دستگاهی تشخیص سرطان و یا پیشبینی نتیجه درخواست وام مسکن باید با یک توضیحی قابل توجیه باشد. البته این موضوع را هم باید مد نظر داشت که تفسیر بعضی مدل‌ها سخت و تفسیر بعضی راحت‌تر است. Responsible AI می‌توانند تعیین کنند که در چه زمینه‌ای از مدل‌های قابل تفسیر و کجا از مدل‌هایی که تفسیر پذیری کمتری دارند استفاده کنیم.

 

۲. حرکت به سمت هوش مصنوعی منصف

هدف دوم نوشتن قانونی است که انصاف را در هوش مصنوعی نهادینه کند. ما درحال صحبت درمورد سیستمی هستیم که انواع اطلاعات را دریافت، پردازش و براساس آن نتیجه‌گیری می‌کند. چنین سیستمی با قدرتی که دارد، می‌تواند جانب انصاف را نسبت‌به دسته‌های مختلف اجتماع از دست بدهد و درواقع قدم در مسیر تبعیض بگذارد.
در عمل هرچه مدل‌های استفاده شده قابل پیش‌بینی باشند، سنجش رعایت اعتدال و انصاف نیز در آن‌ها راحت‌تر است. پس ما برای هوش مصنوعی به قوانینی نیاز داریم که در سنجش اعتدال و انصاف کمک حالمان باشند.

 

۳. هوش مصنوعی امن

موضوع دیگر امنیت است. امنیت یکی از قدیمی‌ترین چالش‌های مطرح در حوزه سخت‌افزار و نرم‌افزار است و خیلی بحث غریبی برای این حوزه نیست. بااین‌حال در این شاخه‌ها با تکنیک‌هایی مثل رمزگذاری و تست‌های نرم‌افزاری رفع شده است، اما در هوش مصنوعی خبری از تست و رمزگذاری نیست.
درواقع ما با مدلی رو‌به‌رو هستیم که در شرایط مختلف تصمیم‌های متفاوتی می‌گیرد و فرآیندی دارد که درصورت مختل شدنش تصمیم‌گیری هم مختل شده یا به‌سمت ناهنجاری می‌رود. مثال عینی آن‌ها خودروهای هوشمند یا ربات‌هاست که می‌توانند آسیب‌هایی مثل مرگ و ویرانی را به همراه داشته باشند.

 

۴. کیفیت در دسترسی به اطلاعات

مورد چهارم، بحث قدیمی و شیرین داده‌هاست. کیفیت و کمیت اطلاعات مدل در هوش مصنوعی اهمیت دارد. به‌طور کلی هیچ مدل از هوش مصنوعی نباید اجازه استفاده از اطلاعات شخصی (پزشکی یا شرایط سیاسی و…) داشته باشد. البته خیلی از کشورها به کمپانی و شرکت‌های فعال در این زمینه Responsible AI خود را ابلاغ کرده‌اند، اما این قوانین اصلا جنبه عمومی ندارند.

 

۵. اعتماد دوطرفه نتیجه اجرا قوانین

در نهایت بادنبال کردن اهداف Responsible AI که گفته شد یک نتیجه به‌وجود خواهد آمد و آن اعتماد کاربر به هر محصولی است که هوش مصنوعی در آن استفاده شده است. اگر این اعتماد بین کاربر و ارائه‌دهنده خدمت شکل نگیرد، استفاده‌ای هم در کار نخواهد بود. ساخت این اعتماد نیازمند تلاش دوطرفه است که بعد از نگارش قوانین هوش مصنوعی شکل بگیرد.

 

 

آینده Responsible AI چیست؟

درحال حاضر وقتی صحبت از قوانین هوش مصنوعی می‌شود، انتظار می‌رود، کمپانی‌های بزرگ با قوانین صحیح و منصفانه، خود را ملزم به رعایت کنند. شرکت‌های بزرگی مثل مایکروسافت، گوگل و IBM قوانین خاص خود را دارند، اما نمی‌توان منکر تناقض در قانون‌گذاری بین آن‌ها شد. این درحالیست که خیلی از شرکت‌های کوچک هیچ نقشه راهی هم برای تدوین قوانین اختصاصی ندارند.

راه‌حل بلقوه این مسئله این است که قوانین یکسان و کلی برای تمام شرکت‌ها تنظیم شود و آن‌ها را ملزم به اجرا کند. نمونه بارز آن‌ها دستورالعمل‌های اخلاقی اتحادیه اروپا برای هوش مصنوعی است تا شرکت‌هایی که قصد فعالیت در این قسمت از دنیا را دارند از آن‌ها پیروی کنند. استفاده از Responsible AI این اطمینان را می‌دهد که تمام کمپانی‌های موجود، شرایط یکسانی را در مدل‌های مختلف هوش مصنوعی دارند.

اما سوال اصلی این‌جاست که آیا می‌توان به آن‌ها اعتماد کرد؟

گزارشی که در در سال ۲۰۲۰ درباره وضعیت هوش مصنوعی و ماشین لرنینگ در ۳۷۴ کمپانی که از تکنولوژی هوش مصنوعی استفاده می‌کنند منتشر شده، نشان می‌دهد: هوش مصنوعی برای ۷۵ درصد از آن‌ها اهمیت بسیار زیادی دارد ولی فقط ۲۵ درصد پایبند به قوانین هوش مصنوعی و رعایت انصاف و اخلاق در آن هستند.

این گزارش نشان می‌دهد جواب سوال بالا (خیر) است. مردم نباید و نمی‌توانند به کمپانی‌های مدعی اعتماد کنند. برای این‌که دستورالعمل‌ها موثر باشند، باید اجرا شوند. این به معنی تبدیل شدن هر دستورالعمل در این زمینه به قانون است. قانونی که رعایت آن الزامی و تخطی از آن مجازات در بر دارد.

 

 

Responsible AI درحال حاضر کجاست؟

مسیری که فعلا جهان در آن قرار دارد زمان است. تقریبا همه به اهمیت تصویب Responsible AI پی‌برده و درصدد تدوین قوانین هوش مصنوعی هستند. با شرایطی که اتحادیه اروپا ایجاد کرده اولین قدم برای مسئولیت‌پذیر کردن هوش مصنوعی برداشته شده است. شرکت‌های بزرگی مثل گوگل، اپل، مایکروسافت و فیسبوک نیز همین درخواست را دارند پس جامعه جهانی حالا نیازمند زمان برای پخته‌تر شدن نظریه‌ها و تدوین قوانین است. مهم‌ترین موضوع فعلی، زمان برای شکل گیری اتحادی جهانی در مسئولیت‌پذیرکردن هوش مصنوعی است.

نظر شما چیست؟ آیا هوش مصنوعی در مسیر صلح آمیز قدم برمی‌دارد یا مثل انرژی هسته‌ای به‌سمت ویران کردن حرکت می‌کند؟ نظر خود را با ما به اشتراک بگذارید و شما تکمیل‌کننده مقاله‌ای باشید که احتمالا نقص‌هایی دارد. حالا که با هوش مصنوعی آشنا شدید اگر به یادگیری این حوزه علاقه‌مندید سری به دوره‌های آموزش ماشین لرنینگ آکادمی آمانج بزنید.

مشاهده نسخه گرافیکی و کامل