Site icon آکادمی آمانج

نیمه‌ تاریک هوش مصنوعی و ماشین لرنینگ

معایب و خطرات هوش مصنوعی و ماشین لرنینگ چیست

«ربات‌ها می‌آیند و جای انسان را می‌گیرند.»

«هوش مصنوعی مشاغل زیادی را ازبین خواهد برد و انسان‌ها را بیکار خواهد کرد.»

«تروریست‌ها از هوش مصنوعی به‌عنوان سلاح استفاده خواهند کرد.»

«دولت‌ها از هوش مصنوعی و ماشین لرنینگ برای جاسوسی‌کردن از شهروندانشان کمک می‌گیرند.»

نیازی نیست حتما علاقه‌مندبه حوزه‌ی هوش مصنوعی و ماشین لرنینگ باشید تا یکی‌از آن جملات به‌گوشتان خورده باشد. درباره‌ی معایب، مضرات و خطرات هوش مصنوعی فراوان مطلب گفته و نوشته شده است. رسانه‌های خبری هم چیزی کم نگذاشتند و خیلی خوب مردم را از هوش مصنوعی و ماشین لرنینگ ترساندند.

اما آیا واقعا یادگیری ماشین و آموزش‌دادن الگوریتم‌ها ترس دارد؟ انسان باید از آینده‌ای که قرار است در آن ربات‌ها و دستیاران صوتی او را بهتراز خودش بشناسند، بترسد؟ ترس فایده‌ای هم دارد؟ آیا می‌شود جلوی پیشرفت سریع هوش مصنوعی را گرفت؟ آیا سرنوشت محتوم انسان چیزی است شبیه‌به آنچه در فیلم Her یا I, Robot به‌تصویر کشیده شده است؟ 

در این محتوا تلاش می‌کنم تا به سوالات طرح‌شده در بالا پاسخ بدهم و واقع‌بینانه به معایب، مضرات و خطرات هوش مصنوعی و ماشین لرنینگ بپردازم.  

 

 

 

نیمه‌ی تاریک هوش مصنوعی و ماشین لرنینگ

بگذارید یک چیز را روشن کنم. در این محتوا قرار نیست بگویم که هوش مصنوعی هیچ عیب و ضرر و خطری ندارد. نکته اینجاست که چطور باید به آن موضوع نگاه کرد؟ AI علم است و تاریخچه هوش مصنوعی نشان می‌دهد که متخصصان و دانشمندان زیادی سال‌ها برای این رشته تلاش کردند. جلوی پیشرفت هوش مصنوعی و زیرشاخه‌های آن را هم نمی‌شود گرفت، چون کاربردهای زیرشاخه‌های هوش مصنوعی، مخصوصا ماشین لرنینگ، به‌نفع بشر بوده و کار و زندگی انسان را در زمینه‌های گوناگون راحت‌تر کرده است. 

پس چه باید کرد و چطور باید درباره‌ی نیمه‌ی تاریک AI یا هوش مصنوعی سیاه (Dark Al) و یادگیری ماشین حرف زد؟ بگذارید چند مثال بزنم. اینترنت ترس دارد؟ چه‌‌کسی است که منکر معایب و مضرات و خطرات اینترنت باشد؟ رمزارزها چطور؟ آن‌ها عیب و خطری ندارند؟ واکسن چطور؟ بعضی‌ها واکسن می‌زنند و متاسفانه می‌میرند. داروها هم عوارض جانبی دارند!

اما ما از اینترنت استفاده می‌کنیم، بعضی‌ها رمزارز می‌خرند،‌ واکسن می‌زنیم و دارو‌هایی را که پزشک برایمان تجویز می‌کند می‌خوریم. فقط چون به خطراتشان آگاهیم، بسیار بااحتیاط عمل می‌کنیم. هم ما احتیاط می‌کنیم و هم دانشمندان و متخصصان تلاش می‌کنند تا را‌ه‌هایی برای کم‌کردن خطرات داروها و واکسن‌ها پیدا کنند. شرکت‌هایی هم تلاش می‌کنند تا امنیت اطلاعات و افراد را در اینترنت تامین کنند. خطرات هرگز صفر نخواهد شد،‌ ولی قطعا کنترل و مدیریت خواهد شد. هوش مصنوعی و ماشین لرنینگ نیز از آن قاعده مستثنی نیست. 

 

هوش مصنوعی و ماشین لرنینگ دستاوردی بشری است و پراز عیب و نقض و خطر، درست مانند دیگر دستاوردهای بشری.

 

درادامه، خطرات و معایب هوش مصنوعی و یادگیری ماشین را باهم مرور می‌کنیم. در هر مورد راه‌حل‌هایی که تاکنون برای دفع‌ آن‌ خطرات و مضرات پیدا شده نیز گفته خواهد شد. 

 

خطرات و معایب هوش مصنوعی و یادگیری ماشین

بحث‌کردن درباره‌ی معایب و خطرات هوش مصنوعی و یافتن راه‌حل برای آن‌‌ها موضوعی است برای تحقیقات آکادمیک. دانشمندان در رشته‌های مرتبط درباره‌ی موضوعاتی مانند سوگیری الگوریتم‌ها و الگوریتم‌های تبعیض‌آمیز تحقیق و راه‌حل‌هایی را در مقالات علمی پیشنهاد کرده‌اند. این محتوا جای بحث  تخصصی و علمی درباره‌ی خطرات هوش مصنوعی و ماشین لرنینگ نیست. اما تلاش شده است تا خیلی ساده و قابل‌فهم مهم‌ترین خطرات AI و راه‌حل‌های ارائه‌شده برای آن‌ها معرفی شود. 

 

۱. دولت‌ها، سازمان‌های جهانی و شرکت‌های فناوری با وضع‌کردن قوانین، استاندارها و راهنماها با هوش مصنوعی سیاه مبارزه می‌کنند

عام‌ترین خطر و عیبی که ماشین‌ها و سیستم‌های ساخته‌شده با هوش مصنوعی و ماشین لرنینگ دارند این است که آن‌ها ممکن است مرتکب خطا و حتی جرم شوند و افراد و گروه‌ها از آن‌‌ها سوءاستفاده کنند. به‌راحتی می‌شود با ماشین لرنینگ الگوریتم‌ها را با اطلاعات نادرست و جهت‌دار آموزش داد. یعنی ممکن است الگوریتم‌ها برای انجام‌دادن جرم یا حتی آسیب‌رساندن به مردم آموزش داده شوند. 

هوش مصنوعی سیاه عبارت عامی برای نامیدن هرنوع عمل خطای سیستم‌های خودکار و ماشین‌هاست. مثلا، پهپادها با هوش مصنوعی کنترل می‌شوند. تصور کنید اگر گروه‌های تروریستی به پهپادهای نظامی دسترسی داشته باشند و بتوانند از آن‌ها استفاده کنند، چه خطراتی را برای مردم جهان و کشورهای مختلف ایجاد می‌کنند.

بنابراین، هوش مصنوعی سیاه فقط تهدیدی برای حریم خصوصی کاربران و انسان‌ها نیست. هوش مصنوعی سیاه و ماشین لرنینگ برای امنیت ملی و اقتصادی دولت‌های جهان خطرناک است. به‌همین‌دلیل، دولت‌ها، سازمان ملل متحد و شرکت‌های فناوری در کشورهای مختلف با وضع‌کردن استاندارها، راهنماها و حتی قوانین و مقرراتی با هوش مصنوعی سیاه مبارزه می‌کنند. این مبارزات جدای از بحث کاربردهای نظامی هوش مصنوعی و ماشین لرنینگ و همچنین کمپین‌هایی است که فعالان برای مبارزه با خطرات هوش مصنوعی و یادگیری ماشین در کشورهای مختلف به‌راه‌ انداخته‌اند. 

به  نمونه‌ای از آن مبارزات اشاره می‌کنم. شرکت مایکروسافت برنامه‌ای چندجانبه باعنوان Responsible AI راه‌اندازی کرده است. در برنامه‌ی مایکروسافت استاندارهایی برای به‌کاربردن هوش مصنوعی و یادگیری ماشین در مایکروسافت وضع شده است. مایکروسافت می‌خواهد با این برنامه به همه نشان دهد که تلاش می‌کند از هوش مصنوعی و یادگیری ماشین مسئولانه استفاده کند. 

 

 

 

۲. متخصصان و شرکت‌ها تلاش می‌کنند تا امنیت داده‌ها و حریم ‌خصوصی کاربران را درمقابل استفاد‌ه‌ی مجرمانه‌از هوش مصنوعی و ماشین لرنینگ تضمین کنند

جمع‌آوری و تحلیل‌داده از مهم‌ترین کاربردهای ماشین لرنینگ است. دیتا ساینتیست‌ها در صنایع و کسب‌وکارهای مختلف با آموزش‌دادن الگوریتم‌ها مدل‌های پیش‌بینی می سازند. آن مدل‌ها می‌توانند رفتار و واکنش‌های کاربران یا مشتریان را پیش‌بینی کنند. جمع‌آوری داده برای آموزش الگوریتم چیزی نیست جز ذخیره‌کردن هر کلیک، هر لایک و هر کاری که من و شما در اینترنت انجام می‌‌دهیم. حالا تصور کنید هکری به داده‌های جمع‌آوری‌شده و همچنین مدل‌های پیش‌بینی رفتار کاربران یک کسب‌وکار بسیار بزرگ دسترسی پیدا کند. چه اتفاقی می‌افتد؟ 

متاسفانه خطر فقط این نیست که داده‌ها دزدیده‌ شوند، خطر بزرگ‌تری وجود دارد. هکرها، کلاهبرداران، سارقان اینترنتی و حتی شبکه‌های جرائم سازمان‌یافته و گروه‌های تروریستی از ماشین لرنینگ و هوش مصنوعی برای هک‌کردن پسورد، ساختن چت بات‌ برای اطلاعات‌گرفتن از کاربران و فیشینگ اطلاعات حساب بانکی، حمله‌های هکری و …  استفاده می‌کنند (نمونه‌ای دیگر برای هوش مصنوعی سیاه).  علاوه‌بر آگاهی‌بخشی به جامعه درباره‌ی آن خطرات و تلاش شرکت‌ها و متخصصان حوزه‌ی امنیت سایبری برای محافظت‌از داده‌ها، نیاز است دولت‌ها قوانین لازم را وضع کنند تا هر سازمان و کسب‌وکاری که از کاربران داده جمع‌آوری می‌کند، موظف شود از آن داده‌ها محافظت کند.

 

۳. فرآیند آموزش‌‌دادن به الگوریتم‌ها و تصمیم‌گیری ماشین‌ها باید روشن، شفاف و کنترل شود

ماشین لرنینگ به ماشین یاد می‌دهد که چطور یاد بگیرد. ماشین لرنینگ و دیپ لرنینگ به ماشین زبان طبیعی انسان (پردازش زبان طبیعی) را هم یاد می‌دهند. خب سوال مهم این است: ماشین می‌تواند یادگیری را متوقف کند و دیگر و بیشتر یاد نگیرد؟. اگر ماشین بتواند فراتراز آموزش‌ها برود و محیط اطرافش را درک کند، یعنی خودش می‌تواند تصمیم‌ بگیرد و عمل کند. و خطر اینجاست که انسان و حتی مهندس سازنده‌ی الگوریتم نمی‌توانند آن تصمیم‌ها را پیش‌بینی و درک کنند.

Black box Al یا هوش مصنوعی دربسته به سیستم‌ها و ماشین‌هایی اشاره دارد که داده‌ها و فرآیند‌های تصمیم‌گیری در آن‌ها روشن نیست. برای حل آن مشکل کمپینی (راه‌حلی) به‌نام  Explainable Artificial Intelligence به‌وجود آمده است که تلاش می‌کند تا کنترل بر فرآیندهای تصمیم‌گیری در ماشین‌‌ها افزایش پیدا کند. 

وقتی کنترلی بر آموزش‌دادن به ماشین وجود ندارد،‌ ممکن است خواسته یا ناخواسته، الگوریتم با سوگیری (Bias) و جهت‌‌دار آموزش ببیند. کسی‌که ماشین را می‌سازد و با داده‌های اولیه به او آموزش می‌دهد، یک انسان (مهندس یادگیری ماشین) است. ممکن است آن انسان به الگوریتم آموزش نداده باشد که پوست همه‌ی انسان‌ها سفید نیست و انسان‌هایی با رنگ پوست سیاه هم در این جهان وجود دارند. بنابراین، مهندسان یادگیری ماشین باید الگوریتم‌ها را باانصاف آموزش دهند و فقط با اطلاعاتی خاص یا جانب‌دارانه به آن‌ها آموزش ندهند. کمپین‌های مختلفی در این زمینه فعالیت می‌کنند و شرکت‌ها، مثل مایکروسافت، هم تلاش می‌کنند تا با پیروی‌کردن از استاندارهایی مشکل سوگیری را حل کنند. 

 

 

جمع‌بندی و نتیجه‌گیری

بله، رشد‌وتوسعه‌ی هوش مصنوعی و ماشین لرنینگ خطرات و آسیب‌های خاص خودش را دارد. اما دیدیم که دولت‌ها، شرکت‌های بزرگ، سازمان‌های بین‌المللی و کمپین‌ها از خطرات آگاه هستند و برای رفع آن‌ها تلاش می‌کنند. هوش مصنوعی و ماشین لرنینگ آینده را شکل می‌دهند. بنابراین،‌ حذف‌شدنی نیستند و هر روز کاربردهای جدید پیدا و مشاغل جدید ایجاد می‌کنند. 

به‌نظر می‌رسد بهترین راه‌حل برای مدیریت‌کردن خطرات هوش مصنوعی و ماشین لرنینگ  ورود پررنگ‌تر دولت‌ها به این حوزه است، دقیقا همان کاری که دولت امارات متحده‌ی عربی انجام داده و از سال ۲۰۱۷ دولت معاونت ویژه‌‌ای برای هوش مصنوعی و اقتصاد دیجیتال تاسیس کرده است. چون کسب‌وکارها و شرکت‌‌های بزرگ هستند که از هوش مصنوعی و ماشین لرنینگ بیشترین بهره را می‌برند، دولت است که با قانون‌گذاری و نظارت می‌تواند آن‌ها را موظف کند تا از AI و ML مسئولانه استفاده کنند و پاسخگو باشند. 

البته، دراین‌میان، متخصصان و مهندسان هوش مصنوعی و یادگیری ماشین نیز سهم مهمی دارند. آن‌ها هم باید مسئولانه دانش خود را به‌کار گیرند. و اگر علاقه‌مند هستند، در تحقیق و پیدا‌کردن راه‌حل برای کاستن‌از خطرات و مضرات هوش مصنوعی و ماشین لرنینگ مشارکت کنند. یک راه‌حل دیگر ممکن است این باشد که بحث درباره‌ی هوش مصنوعی سیاه و راه‌های مبارزه با آن از آموزش پایتون و ماشین لرنینگ آغاز شود تا دانشجو و علاقه‌مند از همان ابتدا یاد بگیرد باید مسئولانه دانش و مهارتی را که کسب‌ می‌کند، به‌کار گیرد.

 

 

مشاهده نسخه گرافیکی و کامل