احتمالا با شخصیت دکتر اختاپوس در فیلم مرد عنکبوتی آشنا هستید. صحبت از تکنولوژی هوش مصنوعی یعنی همان حرکت آرمانی که دکتر برای رفع محدودیتهای خود با دستگاهی که ساخت انجام داد. در این مقاله میخواهیم بررسی کنیم که اگر چیپ کنترل دستگاه دکتر اختاپوس شکست و او را به یک غول تبدیل کرد باید چه کنیم؟ نتیجه چنین رخدادی بر گردن چه کسی است، آیا اصلا باید اجازه تولید چنین چیزی را داد یا نه؟ اینجاست که Responsible AI به کمک ما میآید. ما در این مقاله از آکادمی آمانج میخواهیم ببینیم آیا هنوز قوانین هوش مصنوعی متولی خاصی دارد؟
آنچه در این نوشته خواهیم داشت
حقوق هوش مصنوعی چیست؟
در نظر خیلی از مردم هوش مصنوعی حرکتی آرمانی و رو بهجلو در دنیایی است که با کمک تکنولوژی هیچ محدودیتی در کره خاکی ندارند. افراد دیگری هم هستند که به هوش مصنوعی با مثبت اندیشی کمتری نگاه میکنند. بسیاری از نکات مثل تصمیمهای اشتباه یا از بین رفتن برخی از مشاغل و نبود حریم خصوصی و بحث امینت دادهها از جمله این موارد است که در فکر این بخش مرتب هشدار میدهد. اینجاست که فقدان قانون نمایان میشود. قوانین هوش مصنوعی درواقع راهی برای پاسخگویی به این مسائل و مسئولیتپذیر کردن شرکتهای استفادهکننده از این تکنولوژی است.
بیشتر بخوانید: “نیمه تاریک هوش مصنوعی و ماشین لرنینگ“
هوش مصنوعی چیست و چرا به قانون نیاز دارد؟
به نظرم حالا زمان آن رسیده که بهصورت متمرکز جواب این سوال را بدهیم (مگر هوش مصنوعی چیست که نیاز به قانون و مسئولیتپذیری دارد؟)
وقتی درمورد AI حرف میزنیم منظورمان مدلی از ماشین لرنینگ است که در پروداکتهای مختلف اجرا میشود. مثلا خودروهای بدون سرنشین باید بهصورت خودکار مسیر و چالشهای احتمالی موجود در آن را تشخیص و تصمیم دقیق بدون دخالت انسان بگیرند. آنها دادههای بهدست آورده از حسگرهای مختلف را دریافت، تحلیل و خیلی از مواقع باید در کمتر از چند صدم ثانیه تصمیمی دقیق بگیرند.
مثلا فرض کنید اتومبیل هوشمند تشخیص میدهد شی خاصی جلو حرکتش را گرفته است، در وتکنش به این مشکل خودرو باید ابتدا تشخیص دهد آن شی چیست، دوم باید تصمیم بگیرد چه عکسالعملی برای ادامه مسیر از خود نشان دهد. آیا باید توقف کند یا به چپ بپیچد؟ درصورت ترمز کامل، خودرو پشت سر چه شرایطی دارد و حرکت به راست چه نتیجهای خواهد داشت؟
احتمالا تا همینجا قانع شدهاید که این سیستم چقدر پیچیده و خاص است و باید شرایط و قوانین و مقررات خاص خود را داشته باشد وگرنه جولان آنها بهصورت فراگیر خصوصا در صنایع، آثار مخربی در جامعه انسانی بهجا میگذارد.
شما میتوانید همین موضوع خودرو را به سلاحهای نظامی، وسایل حملونقل عمومی و خصوصی، حتی گجتهای حوزه تکنولوژی و چالشیترین بحث هوش مصنوعی یعنی ربات انساننما تعمیم دهید تا متوجه خلأ بسیار بزرگ ماجرا شوید. Responsible AI یا قوانین هوش مصنوعی هدفی جز مسئولیتپذیر کردن این علم و دنیای بزرگش ندارد.
وقتی حرف از Responsible AI میزنیم منظورمان چیست؟
جوامع مختلف تعاریف متفاوت و روشهای مختلفی در تفسیر و استفاده از کلمه “قانون” دارند. خیلی از قوانین باعث تخریب و خیلی دیگر به رشد و ترقی زمین کمک میکنند.
Responsible AI بهتر است با در نظر داشتن دموکراسی و اخلاق، تدوین و جزییاتی مثل نحوه ارزیابی دادهها و نظارت و استقرار مدلهای هوش مصنوعی در پلتفرها و محصولات مختلف به آن اضافه شود. علاوهبر این میتواند مشخص کند که درصورت بروز اختلال یا مشکل در زندگی مردم، چه کسی مسئول است.
تفسیرهای مختلفی از قوانین هوش مصنوعی وجود دارد، اما هدف مشترک همه آنها رسیدن به نتیجهای منصفانه برای رشد بشر کنار سیستمی تفسیرپذیر، معتدل، امن و قابل اعتماد است.
هدف از نوشتن قوانین هوش مصنوعی چیست؟
هنوز بعد از سالها رشد و بالندگی این صنعت، قوانین خاصی برای آن نوشته نشده است. در ادامه به بررسی اهداف احتمالی که Responsible AI باید دنبال کنند، میپردازیم.
۱. کمک به تفسیرپذیر کردن هوش مصنوعی
اولین مورد، تفسیرپذیر بودن است. درواقع منظور از تفسیرپذیری در مدل هوش مصنوعی، توضیح دلایل و یا چگونگی نحوه کار کردن آن مدل است. فکر کنید دستگاهی تشخیص سرطان و یا پیشبینی نتیجه درخواست وام مسکن باید با یک توضیحی قابل توجیه باشد. البته این موضوع را هم باید مد نظر داشت که تفسیر بعضی مدلها سخت و تفسیر بعضی راحتتر است. Responsible AI میتوانند تعیین کنند که در چه زمینهای از مدلهای قابل تفسیر و کجا از مدلهایی که تفسیر پذیری کمتری دارند استفاده کنیم.
۲. حرکت به سمت هوش مصنوعی منصف
هدف دوم نوشتن قانونی است که انصاف را در هوش مصنوعی نهادینه کند. ما درحال صحبت درمورد سیستمی هستیم که انواع اطلاعات را دریافت، پردازش و براساس آن نتیجهگیری میکند. چنین سیستمی با قدرتی که دارد، میتواند جانب انصاف را نسبتبه دستههای مختلف اجتماع از دست بدهد و درواقع قدم در مسیر تبعیض بگذارد.
در عمل هرچه مدلهای استفاده شده قابل پیشبینی باشند، سنجش رعایت اعتدال و انصاف نیز در آنها راحتتر است. پس ما برای هوش مصنوعی به قوانینی نیاز داریم که در سنجش اعتدال و انصاف کمک حالمان باشند.
۳. هوش مصنوعی امن
موضوع دیگر امنیت است. امنیت یکی از قدیمیترین چالشهای مطرح در حوزه سختافزار و نرمافزار است و خیلی بحث غریبی برای این حوزه نیست. بااینحال در این شاخهها با تکنیکهایی مثل رمزگذاری و تستهای نرمافزاری رفع شده است، اما در هوش مصنوعی خبری از تست و رمزگذاری نیست.
درواقع ما با مدلی روبهرو هستیم که در شرایط مختلف تصمیمهای متفاوتی میگیرد و فرآیندی دارد که درصورت مختل شدنش تصمیمگیری هم مختل شده یا بهسمت ناهنجاری میرود. مثال عینی آنها خودروهای هوشمند یا رباتهاست که میتوانند آسیبهایی مثل مرگ و ویرانی را به همراه داشته باشند.
۴. کیفیت در دسترسی به اطلاعات
مورد چهارم، بحث قدیمی و شیرین دادههاست. کیفیت و کمیت اطلاعات مدل در هوش مصنوعی اهمیت دارد. بهطور کلی هیچ مدل از هوش مصنوعی نباید اجازه استفاده از اطلاعات شخصی (پزشکی یا شرایط سیاسی و…) داشته باشد. البته خیلی از کشورها به کمپانی و شرکتهای فعال در این زمینه Responsible AI خود را ابلاغ کردهاند، اما این قوانین اصلا جنبه عمومی ندارند.
۵. اعتماد دوطرفه نتیجه اجرا قوانین
در نهایت بادنبال کردن اهداف Responsible AI که گفته شد یک نتیجه بهوجود خواهد آمد و آن اعتماد کاربر به هر محصولی است که هوش مصنوعی در آن استفاده شده است. اگر این اعتماد بین کاربر و ارائهدهنده خدمت شکل نگیرد، استفادهای هم در کار نخواهد بود. ساخت این اعتماد نیازمند تلاش دوطرفه است که بعد از نگارش قوانین هوش مصنوعی شکل بگیرد.
آینده Responsible AI چیست؟
درحال حاضر وقتی صحبت از قوانین هوش مصنوعی میشود، انتظار میرود، کمپانیهای بزرگ با قوانین صحیح و منصفانه، خود را ملزم به رعایت کنند. شرکتهای بزرگی مثل مایکروسافت، گوگل و IBM قوانین خاص خود را دارند، اما نمیتوان منکر تناقض در قانونگذاری بین آنها شد. این درحالیست که خیلی از شرکتهای کوچک هیچ نقشه راهی هم برای تدوین قوانین اختصاصی ندارند.
راهحل بلقوه این مسئله این است که قوانین یکسان و کلی برای تمام شرکتها تنظیم شود و آنها را ملزم به اجرا کند. نمونه بارز آنها دستورالعملهای اخلاقی اتحادیه اروپا برای هوش مصنوعی است تا شرکتهایی که قصد فعالیت در این قسمت از دنیا را دارند از آنها پیروی کنند. استفاده از Responsible AI این اطمینان را میدهد که تمام کمپانیهای موجود، شرایط یکسانی را در مدلهای مختلف هوش مصنوعی دارند.
اما سوال اصلی اینجاست که آیا میتوان به آنها اعتماد کرد؟
گزارشی که در در سال ۲۰۲۰ درباره وضعیت هوش مصنوعی و ماشین لرنینگ در ۳۷۴ کمپانی که از تکنولوژی هوش مصنوعی استفاده میکنند منتشر شده، نشان میدهد: هوش مصنوعی برای ۷۵ درصد از آنها اهمیت بسیار زیادی دارد ولی فقط ۲۵ درصد پایبند به قوانین هوش مصنوعی و رعایت انصاف و اخلاق در آن هستند.
این گزارش نشان میدهد جواب سوال بالا (خیر) است. مردم نباید و نمیتوانند به کمپانیهای مدعی اعتماد کنند. برای اینکه دستورالعملها موثر باشند، باید اجرا شوند. این به معنی تبدیل شدن هر دستورالعمل در این زمینه به قانون است. قانونی که رعایت آن الزامی و تخطی از آن مجازات در بر دارد.
Responsible AI درحال حاضر کجاست؟
مسیری که فعلا جهان در آن قرار دارد زمان است. تقریبا همه به اهمیت تصویب Responsible AI پیبرده و درصدد تدوین قوانین هوش مصنوعی هستند. با شرایطی که اتحادیه اروپا ایجاد کرده اولین قدم برای مسئولیتپذیر کردن هوش مصنوعی برداشته شده است. شرکتهای بزرگی مثل گوگل، اپل، مایکروسافت و فیسبوک نیز همین درخواست را دارند پس جامعه جهانی حالا نیازمند زمان برای پختهتر شدن نظریهها و تدوین قوانین است. مهمترین موضوع فعلی، زمان برای شکل گیری اتحادی جهانی در مسئولیتپذیرکردن هوش مصنوعی است.
نظر شما چیست؟ آیا هوش مصنوعی در مسیر صلح آمیز قدم برمیدارد یا مثل انرژی هستهای بهسمت ویران کردن حرکت میکند؟ نظر خود را با ما به اشتراک بگذارید و شما تکمیلکننده مقالهای باشید که احتمالا نقصهایی دارد. حالا که با هوش مصنوعی آشنا شدید اگر به یادگیری این حوزه علاقهمندید سری به دورههای آموزش ماشین لرنینگ آکادمی آمانج بزنید.