Site icon آکادمی آمانج

رمزگشایی از سوگیری الگوریتم‌های شبکه‌‌های اجتماعی

سوگیری الگوریتم های سوشال مدیا

سوگیری الگوریتم‌های شبکه‌‌های اجتماعی (social media algorithm bias) یعنی چه؟ مگر می‌شود الگوریتم سوگیری داشته باشد و پیش‌داوری کند؟ اصلا، چرا این موضوع مهم است؟ 

بسیاری از ما اخبار را از سوشال مدیا دنبال می‌کنیم. چیزهای مختلفی در پست‌ها می‌بینیم. اتفاق افتاده است که خبر فوت بازیگر یا شخص مهمی در شبکه‌های اجتماعی پخش شده است. کاربران و اکانت‌هایی با دنبال‌کنندگان چندین هزارتایی هم آن خبر دروغ را منتشر کردند. اما چند ساعت نگذشته و آن شایعه تکذیب شده است. 

اگر یادتان باشد وقتی واکسیناسیون کرونا در ایران شروع شد، در شبکه‌های اجتماعی حرف‌های ضدونقیضی درباره‌ی آن زده شد. عده‌ای مخالف بودند و دلایلی هم داشتند. جالب بود که پست‌هایی با ادعاهای غیرواقعی و خطرناک درباره‌ی واکسن دست‌ به دست می‌شد و لایک و کامنت می‌گرفت. بودند افرادی که در آن دوران فقط برای جلب نظر کاربران و دیده‌ شدن ادعاهایی بسیار مضر برای سلامت عمومی منتشر کردند. 

مطمئن هستم که شما هم نمونه‌هایی را از جریان‌های خطرناکی که در شبکه‌های اجتماعی راه افتاده است، به یاد دارید.  وقتی برای چک کردن هر چیزی به اولین جایی که سر می‌زنیم، سوشال مدیاست؛ چه بخواهیم چه نخواهیم قضاوت و رفتار ما تحت تاثیر آن‌ قرار می‌گیرد. متاسفانه، گاهی آن تاثیر چنان زیاد و شدید است که تبعات وحشتناکی برای افراد و جوامع دارد. 

سوال مهم این است که چه باید کرد؟ اول باید دید ریشه‌ی این مشکل کجاست و چه چیزهایی سبب می‌شود تا بعضی پست‌ها و محتواها بیشتر دیده شوند و بعضی‌ها کمتر؟ بعد باید دید چه راه‌حل‌هایی وجود دارد تا از اثرات سوء و مخرب شبکه‌های اجتماعی بر رفتار و واکنش‌های کاربران به موضوعی مشخص جلوگیری کرد؟ 

این محتوا به آن سوالات پاسخ می‌دهد. 

 

سوگیری الگوریتم‌های شبکه‌‌های اجتماعی

هوش مصنوعی غیرممکن‌های زیادی را ممکن کرده است. با استفاده از هوش مصنوعی و ماشین لرنینگ یا یادگیری ماشین می‌شود به ماشین‌ها (کامپیوترها و نرم‌افزارها) آموزش داد تا کارهایی را یاد بگیرند و انجام دهند. کاربردهای هوش مصنوعی و ماشین لرنینگ در حوزه‌های گوناگون صنعت و تکنولوژی تغییراتی بنیادین در شیوه‌ی کار و زندگی انسان‌ها ایجاد کرده است. 

بعضی کاربردها یا شاید بهتر است بگویم نتایج به‌کارگیری ماشین لرنینگ در حوزه‌های مختلف برای همه‌ی ما بسیار مشهود است. مانند ChatGPT که از دستاوردهای معروف هوش مصنوعی است. ربات‌های هوشمند و سخنگو هم حاصل پیشرفت‌ها در ماشین لرنینگ و رشته‌ای بسیار تخصصی به نام پردازش زبان طبیعی هستند. 

هوش مصنوعی و ماشین لرنینگ کاربردهای دیگری هم دارند که ما متوجه آن‌ها نیستیم. اما آن کاربردها در زندگی تک تک ما تاثیرگذارند. شرکت‌های توسعه‌دهنده شبکه‌های اجتماعی، هوش مصنوعی و ماشین لرنینگ را به خدمت گرفتند تا حجم عظیم محتوای تولید شده در این شبکه‌ها را برای کاربران سامان دهند. 

الگوریتم‌های شبکه‌های اجتماعی ساخته شدند تا با استفاده از واکنش‌هایی که هر کاربر در شبکه‌های اجتماعی دارد، آن کاربر را بشناسند و پست‌ها و محتواهایی (ازجمله محتواهای تبلیغاتی و اسپانسردار) را در فید (News Feed) به او نشان دهند که می‌دانند او می‌پسندد و به آن‌ها علاقه دارد. پس، مشکلی وجود ندارد و الگوریتم‌ها چیزهایی را که کاربران می‌خواهند به آن‌ها نشان می‌‌دهند. 

متاسفانه، مشکلی وجود دارد و موضوع به این سادگی نیست

 

سوگیری زبانی الگوریتم‌ها

الگوریتم‌ها را انسان‌ها آموزش می‌دهند، درست مانند یک بچه. چه می‌شود اگر بچه‌ای در محیطی رشد کند که فقط سفیدپوستان را دیده باشد یا فقط سیاه‌پوستان را؟ یا چه می‌شود اگر بچه در محیطی بزرگ شده باشد که فقط در آن مدیرها یا معلم‌های مرد وجود داشته‌اند؟ آن بچه فکر می‌کند دنیا همین است و اگر از او درباره‌ی رنگین‌پوستان سوال شود، او جوابی ندارد. چون اساسا نمی‌داند در جهان نژاد‌های دیگری هم وجود دارند. 

تحقیقات مختلفی نشان داده است که الگوریتم‌ها سوگیری و پیش‌داوری خواهند کرد اگر با سوگیری و پیش‌داوری آموزش دیده باشند و فقط داده‌ها و اطلاعات مشخص و جهت‌داری به آن‌ها داده شده باشد. پس، وقتی چیزی در دایره‌ی لغات الگوریتم‌ها وجود نداشته باشد، آن را نمی‌بینند. البته، مشکل سوگیری زبانی الگوریتم‌ها فقط این نیست. 

 

 

شبکه‌های اجتماعی از الگوریتم‌ها برای جلوگیری از انتشار محتواهای توهین‌آمیز، تروریستی و حمله و تخریب به یک شخص یا گروه نیز استفاده می‌کنند. یعنی الگوریتم‌ها آموزش دیده‌اند تا اگر در محتوایی بعضی کلمات وجود داشته باشد، آن را حذف کنند. اما مشکل اینجاست که بعضی کلمات و عبارات ممکن است در متنی به یک معنی استفاده شود که توهین‌آمیز است و در متن دیگری طوری استفاده شده باشد که توهین‌آمیز نیست. پس، معنی کلمات و عبارات با توجه به بافت کلام (context) تغییر می‌کنند. علاوه بر آن، بعضی کلمات برای گروهی از افراد و جوامع توهین‌آمیز تلقی نمی‌شوند

پس، اگر الگوریتم با زبان انگلیسی استاندارد آموزش دیده باشد و از داده‌های این زبان استفاده کند، انگلیسی آفریقای جنوبی (SAE) یا انگلیسی بومی آفریقایی-آمریکایی (AAE) را نمی‌فهمد. پس، ممکن است محتوایی را به اشتباه توهین‌آمیز یا مضر تشخیص دهد و حذف کند. در نتیجه، ممکن است صدای بعضی از گروه‌ها و جمعیت‌های قومی یا نژادی در شبکه‌های اجتماعی به اشتباه و ناعادلانه کم یا حتی خفه شود. 

 

سوگیری‌های اجتماعی و شناختی در نتیجه‌ی به‌کارگیری الگوریتم‌‌ها در شبکه‌های اجتماعی

موتورهای جستجو هم مانند سوشال مدیا از الگوریتم‌ها برای سامان دادن به محتواهای فضای وب استفاده می‌کنند. برای این الگوریتم‌ها نیز توجه و تعامل کاربران به یک محتوا یا پست یا حساب کاربری بسیار مهم است. یعنی هر چه کاربران بیشتری به موضوعی واکنش نشان دهند یا به پست‌‌های کاربر مشخصی توجه کنند، الگوریتم‌‌ها آن موضوع، محتوا و کاربر را بیشتر نشان یا پیشنهاد می‌دهند. دلیل هم این است که آن محتوا و کاربر محبوب‌ و پرطرفدارند

سوال مهمی که پیش می‌آید این است که موضوعات، محتواها و دیدگاه‌‌های کم‌طرفدارتر در فضای وب چه می‌شوند؟ آیا این باعث نمی‌شود که نظرات یا افرادی سانسور شوند؟ از آنجایی که محبوبیت دلیلی بر درستی، صحت یا اعتبار یک موضوع یا شخص نیست، آیا این سبب نمی‌شود که محتواهای بی‌کیفیت، هیجانی و بی‌پایه و اساس و نامعتبر در فضای وب به سرعت بچرخد و نظرات مردم را درباره‌ی موضوعی تحت تاثیر قرار دهد؟ آیا همین باعث نمی‌شود که نظرات و دیدگاه‌های مخالف با جریان اکثریت ناشنیده بماند؟ 

بعضی تحقیقات نشان داده است که پاسخ سوالات بالا مثبت است. همین ویژ‌گی الگوریتم‌ها ممکن است به سوگیری‌های شناختی و اجتماعی مختلفی در کاربران در مواجه با موضوعات مختلف سیاسی، اقتصادی، اجتماعی، فرهنگی، اعتقادی و حتی بهداشتی بینجامد. 

 

رایج‌ترین سوگیری های اجتماعی و شناختی در شبکه‌های اجتماعی

مهم‌ترین و شایع‌ترین سوگیری‌های اجتماعی و شناختی که فیلتر شدن اطلاعات به وسیله‌ی الگوریتم‌ها در فضای مجازی سبب می‌شود، عبارت است از: اثر حقیقت واهی، سوگیری تأیید، سوگیری مرجعیت، اثر اجماع کاذب و تعصب درون گروهی. (چون سوگیری تعصب درون گروهی از نامش معلوم و مشخص است،‌ درباره‌ی آن توضیح بیشتری نمی‌دهم.)

جمع‌بندی و نتیجه‌گیری

۱. قطعا هوش مصنوعی و ماشین لرنینگ معایبی دارند و نیمه‌ای تاریک (در نیمه تاریک هوش مصنوعی و ماشین لرنینگ بیشتر در این باره بخوانید). قطعا، استفاده از هوش مصنوعی نیز مشکلات و تبعاتی دارد. سوگیرهای الگوریتم‌ها از جمله‌ی آن معایب‌ و تبعات‌اند. 

۲. سوگیری‌های اجتماعی و شناختی مانعی برای قضاوت و تحلیل درست و منطقی مسائل‌اند. به همین دلیل، ممکن است تبعات جبران‌ناپذیری برای افراد، گروه‌ها و حتی کشورها داشته باشند. 

۳. اما اشتباه است که اگر فکر کنیم هیچ‌کس نمی‌خواهد معایب و تبعات استفاده از هوش مصنوعی و یادگیری ماشین را برطرف کند. اتفاقا برعکس، شرکت‌ها، دانشمندان و متخصصان، دولت‌ها و فعالان در تلاش‌اند تا مطمئن شوند الگوریتم‌ها منصفانه آموزش داده می‌شوند. به همین دلیل است که Responsible AI به وجود آمده است.

۴. علاوه بر آن،‌ فعالان و رسانه‌ها هم می‌کوشند تا کاربران را از وجود این سوگیری‌ها آگاه کنند و از آن‌‌ها بخواهند تا هر چیزی را که در شبکه‌های اجتماعی می‌بینند، باور نکنند. 

۵. در این میان، نقش متخصصان ماشین لرنینگ را نباید از یاد برد. پس، اگر قصد دارید که وارد حوزه‌ی هوش مصنوعی شوید و پایتون یاد بگیرید و بعد از آن هم آموزش ماشین لرنینگ را بگذرانید، بدانید که باید الگوریتم‌ها را بدون پیش‌داوری آموزش دهید.

۶. مشکل سوگیری الگوریتم‌‌های شبکه‌های اجتماعی وجود دارد و مهم است. برای رفع آن مشکل لازم است کاربران و متخصصان با یکدیگر همکاری کنند. یعنی هم ما کاربران باید آگاهانه دربرابر مطالبی که در سوشال مدیا می‌بینیم، موضع بگیریم و هم متخصصان تلاش کنند تا الگوریتم‌ها را مسئولانه آموزش دهند و به‌کار گیرند. 

مشاهده نسخه گرافیکی و کامل