مجری خوش لباس و آراستهای كه تصویر او را در ذیل این نوشته می بینید در نوع خود منحصر به فرد است. ايشان كه اخيرا در خبرگزاری شينهوای چين آغاز به كار كرده است می تواند بیست و چهار ساعته برنامه اجرا کند بدون اين كه خسته شود، به راحتی آموزش میبیند و از همه جهت در اختیار سازمان متبوع خويش است. چرا؟ چون او انسان نيست بلكه در واقع یک ماشین داراي هوش مصنوعی (Artificial Intelligence=AI) است که چهرهاش را بر اساس صورت آدم ها طراحی کردهاند و با آموزشهایی که از طريق فيلم و ويديو میبيند میتواند همچون يك مجری حرفهای خبر بخواند و برنامه اجرا كند. (اطلاعات بيشتر درباره او و نمونهای از اجرايش را در اين آدرس yon .ir/kzZ0m مشاهده كنيد)
✅ طبيعتا ديدن اين سطح از پيشرفت در زمينه فناوریهای جديد، موجب خوشحالی است و نبايد، و شايد هم نمیتوان، مانع آن شد؛ اما سخن مكتوب حاضر اين است كه به ويژه اخلاقپژوهان و اخلاقانديشان حوزه فاوا با ديدن نيمه روشن و سفيد ماجرا، نبايد از نيمه تاريك يا دست كم غبارآلود و نامشخص آن، و بلاهايی كه اين مجری و همجنسان رو به ازدياد او برای آينده بشريت ممكن است به بار آورند غافل شوند. اگر با ديدن ویدیوی چند دقیقهای اين مجری، از سخنان و حتی زيرنويس حرفهایش در ظاهر هیچ چیز متوجه نشویم مهم نيست (به این دلیل ساده که زبان چينی يا حتی انگليسی نمیدانيم) ولی آن چه مهم تر است فهميدن پرسشهای ناگفتهای است كه او به زبان بیزبانی دارد به ما میگويد. تلاش برای يافتن پاسخ اين سوالها نخستين گام برای شناخت نيمه پنهان فناوریهای هوشمند آينده است.
✅مجری دارد میپرسد:
– ما هر روز در حال تقويت جايگاه خود و اشغال بخش بيشتری از زندگی شما هستيم؛ آيا خود را برای همزيستی با ما آماده كردهايد؟
– آيا تصور شما از ما هنوز ماشينهای كوكی دوره كودكی يا حتی رباتهای بیريخت و قيافهای است كه چند سال قبل ديدهايد؟
– ما از يكسو ممكن است موجب تبعيض يا بیكاری ميليونها نفر شويم، و از سوی ديگر موجب درآمدزايی و ايجاد شغل برای هزاران نفر ديگر. ما همچنين بسياری از كارهايی كه در توان شما نيست را به سادگی و با هزينه اندك انجام مي دهيم. اما از سوی ديگر ممكن است مرتكب خطاهايی شويم كه خسارتهای مادی و معنویاش هزاران برابر خطاهای شما باشد. در برابر اين كاركرد اخلاقی دوگانه ما چه خواهيد كرد؟
– اگر با مخدوش كردن مرزهای هويتی، روزی ادعا كنيم كه ما نسخه اصلی و شما نسخه بدلی انسان هستيد چه میكنيد؟ منطق بحث و گفت و گو با ما را ياد گرفتهايد؟
– از آن مهم تر، اگر روزی تصميم بگيريم شما نسخه های به قول خودتان اصلی (و از نظر ما احتمالا بدلی) را از بين ببريم يا از كره زمين (كه فعلا آن را خانه خود میدانيد) اخراج كنيم، چه میكنيد؟ آيا جای ديگری را برای سكونت در نظر گرفتهايد؟
– راستی، اصلاً آيا درباره امكان يا عدم امكان تصميم گيری اخلاقی از سوی ما يا مسووليت اخلاقی كارهايی كه میكنيم تاملی داشتهايد؟
– افراد و مراكز متصدی تدريس و تحقيق درباره اخلاق، و مراكز آیندهپژوه كشورتان برای شناخت ما و آماده كردن شما برای زندگی با ما چه كارهايی انجام دادهاند؟
– اگر تا الان معضلات اخلاقی ناشی از جعل و تحريف صدا و تصوير افراد به وسيله دابسمش و فتوشاپ در فضای مجازی دغدغه اخلاقانديشان و اخلاقپژوهان بود، با به عرصه آمدن ماشينهای آدمنما از قبيل مجری خبرگزاری شينهوا، از اين به بعد دغدغههای بزرگتری رخ مینمايد كه ناشی از جعل و كپی كردن خود انسانها است (تفاوتش با شبيهسازی انسانی – Cloning- اين است كه این تا اندازهای منشاء انسانی دارد، به خلاف ماشینهای هوشمند).
🔺 راستی؛ در سالهای آينده نه در فضای مجازی، كه در فضای حقيقی چگونه میتوانيم از ديدن افراد مطمئن شويم كه آنها اصل هستند نه كپی؟ انسان امروزی كه پدر و مادر دار است اين همه مشكلات اخلاقی را به بار آورده است؛ كپیهای بی اصل و نسب او در آينده چه خواهند كرد؟ آيا ممكن است طوری طراحی شوند كه جز خوبی از آنها سر نزند؟ اجازه دهيد اين اميد را داشته باشيم، تا دست كم امروز از ديدن چهره به ظاهر آراستهشان وحشت نكنيم.