نگاهی به موضوع هفدهمین میزگرد سالانه اخلاق اطلاعات دانشگاه Northeastern در سال ۲۰۱۹
ترجمه: حسینعلی رحمتی

یادداشت مترجم:
«آموزش ماشین» (Machine Learning) شاخه ای از هوش مصنوعی (Artificial Intelligence= AI) و مبتنی بر این ایده است که سیستم ها توانایی این را دارند که با استفاده از داده ها آموزش ببینند، الگوسازی کنند و با کمترین میزان دخالت انسان، تصمیم گیری کنند. اما مسئله ای که در این جا مطرح می شود آن است که از آنجا که این ماشین ها به واسطه داده هایی که انسان در اختیار آنها قرار می دهد آموزش می بینند و از رفتارهای انسان الگوسازی می کنند، این احتمال جدی وجود دارد که دارای جهت گیری های معرفتی و رفتاری تولیدکنندگان خود (که مثلا اروپایی و سفیدپوست هستند)‌ شوند و نسبت به افراد غیراروپایی یا غیرسفید پوست، تصمیم ها و رفتارهای تبعیض آمیز اتخاذ کنند. این موضوع قرار است سال ۲۰۱۹ در هفدهمین میزگرد سالانه اخلاق اطلاعات (Information Ethics) دانشگاه شمال شرق Northeastern University آمریکا مورد بررسی قرار گیرد.
آنچه در ادامه تقدیم می شود سوال های این میزگرد است که از سایت این دانشگاه انتخاب شده است. و هدف از ترجمه آن، آشنایی اخفا پژوهان و اخفا اندیشان کشورمان با جدیدترین مسائل مطرح در مجامع علمی جهان در عرصه اخلاق فناوری اطلاعات است. این آشنایی افزون بر این که افق های جدیدی را فراروی آنان می گشاید، راه را برای ژرف اندیشی های بیشتر درباره این موضوعات با بهره گیری از آموزه های اخلاقی، دینی و فلسفی دیار ما هموار می کند. (پایان توضیحات مترجم)

هوش مصنوعی امروزه جزوی از زندگی روزمره ما شده است، و به ما این امکان را می دهد که بدون گرفتار شدن در ترافیک خیابان ها به آسانی قدم به جاهایی بگذاریم که پیش از این هرگز نرفته بودیم، بدون داشتن زبان مشترک، با دوست چینی مان ارتباط برقرار کنیم، یا در کارخانه ها عهده دار کارهای پیچیده اما به شدت خسته کننده و تکراری شویم. اما، از سوی دیگر، بهره گیری از هوش مصنوعی می تواند منجر به مسئله ای شود که می توان آن را «تبعیض یا جهت گیری مصنوعی» (artificial bias) نامید؛ یعنی آن دسته از رفتار ماشین های هوشمند، البته اگر به وسیله انسان تولید شده باشند، که می توانیم آنها را نسبت به گروه های خاصی چون اقلیت های نژادی، دارای جهت گیری تبعیض آمیز بدانیم. آموزش این ماشین ها که با استفاده از مجموعه های بزرگی از داده ها انجام می شود، یکی از ابزارهای به کارگیری هوش مصنوعی است که به طور خاص استعداد تولید سیستم های تبعیض آمیز را دارد؛ چرا که این ماشین ها اطلاعات خود را از رفتارهای انسان الگوبرداری می کنند که خود این رفتارها ممکن است تبعیض آمیز باشد. یافتن راه هایی برای اصلاح این جهت گیری ها، و تولید الگوریتم های بی طرفانه (fair algorithms) مستلزم پاسخ به مجموعه ای از پرسش ها است، از جمله:
۱. کدام یک از تعاریفی که در فلسفه و رشته های دیگر برای بی طرفی و عدالت گفته شده، برای شناخت بی طرفی، برابری (equality) و عدالت در استفاده از داده ها و آموزش ماشین های هوشمند مفیدتر است؟
۲. با توجه به تکنیک های متفاوتی که برای آموزش ماشین های هوشمند به کار می رود، تعریف های مختلف از بی طرفی و عدالت تا چه اندازه در مورد این ماشین ها امکان عملیاتی شدن یا محاسباتی شدن را دارد؟
۳. آیا ممکن است سیستم های تصمیم گیر در ماشین های آموزش دیده پیش از این که در یک صنعت خاص، مثلا وام دادن (lending) یا خدمات اجتماعی (از قبیل سرویس های نگهداری از کودکان) به کار گرفته شوند نسبت به رفتارهایی که هم اکنون عادلانه و بی طرفانه محسوب می شود، از سطح بالاتر و متفاوت تری از عدالت و بی طرفی برخوردار شوند؟
۴. نقش متخصصان داده پردازی و برنامه نویسان کامپیوتر در اصلاح جهت گیری هایی که گفته شد چیست؟ آموزش ماشین ها چگونه می تواند در ایفای این نقش موثر واقع شود؟
۵. برخی از جهت گیری ها بسیار هم مفید هستند(تبعیض مثبت- م). پس کدام یک از آنها غیرعادلانه اند؟ و چرا؟
۶. برنامه نویسان امروزیِ متخصص طبقه بندی داده ها (classification)، برای پرهیز از جهت گیری های نادرست، چه چیزهایی را می توانند از تجارب دیگر رشته های مرتبط با طبقه بندی (مانند کتاب داری) بیاموزند؟
۷. پژوهش های هنجاری در حوزه های دیگر، از قبیل تشکیل پرونده برای افراد توسط پلیس، درباره این که چه زمانی و تحت چه شرایطی تشکیل پرونده برای دیگران توسط ماشین های آموزش دیده قابل پذیرش و توجیه است چه چیزهایی را به ما می آموزد؟
۸. چه ارتباطی وجود دارد بین تبیین پذیری/تفسیر پذیری (explainability/interpretability) تصمیم گیری ماشین های آموزش دیده و به کارگیری عادلانه این ماشین ها در زمینه های دیگر؟