اخبار جعلی که هم به یکی از بزرگترین تهدیدهای دموکراسی و آزادی بیان بدل گشتهاست! به راستی چه چیزی اخبار جعلی را شکل میدهد و این چه مقدار مشکل بزرگی تلقی میشود؟ در اینباره اختلافنظر بسیاری وجود دارد و این خود یکی از موارد خطرناکی است که در نوع خود عجیب نیز به نظر میرسد.
هر روز اخبار جعلی بیشتر در حوزههای مختلف نشر داده میشود و به نظر میرسد دشوارترین کار، متوقف کردن همین انتشار باشد!
از زمان پیدایش مفهوم «اخبار جعلی (fake news)» فناوری نیز به مراتب پیشرفت شگرفی داشته و از اینرو باید بیان داشت که هم اکنون با نمونههایی از اخبار جعلی روبهرو هستیم که تا چندی پیش حتی قابل تصور نبود. بسی باعث ترس مضاعف است، دانستن آنکه Motherboard توانست یک بازطراح به نام «جعل عمیق (deepfakes)» را کشف کند و برای خود بدین وسیله سرگرمی بسازد که پیامدهای وحشتناکی را میتواند به بار بیاورد. با استفاده از این فناوری که با کمک هوش مصنوعی برای همگان قابل دسترس است، میتوان روی بدن بازیگران فیلمهای پورن، از چهره هر شخصی که ادیتور بخواهد استفاده کرد. درست است که Reddit چند روز بعد از آن بخش جعل عمیق را تعطیل کرد و بسیاری از سایتهای نمایش فیلم پورن نیز، نمایش این دسته از فیلمها را ممنوع کردند، اما این فناوری ترسناک به صورت کامل از دسترس عمومی خارج نشد!
هماهنگ کردن صدا با تصویر (Lip- synced) جزو مواردی است که برای آن پیشتر دورههایی برگزار میشد تا دوبلورها بتوانند به صورت حرفهای فعالیت کنند، اما این فناوری ترسناک به یاری محققان دانشگاه واشنگتن در سال ۲۰۱۷ دیگر میتواند فیلمهایی با صدا و تصویر هماهنگ به شما نمایش دهد؛ به این صورت که هر صدایی روی هر تصویری میتواند بنشیند و مخاطب متوجه تقلب صورت گرفته نخواهدشد! پس هر شخصی با استفاده از جعل عمیق میتواند فیلمی را ترکیب و منتشر کند و برای این کار نیازی نیست که اصلاً شخص مورد نظر جملهای ادا یا در مکان خاصی حضور پیدا کند. Ovadya ارتشی از رباتهای بسیار هوشمند با هوش مصنوعی را تجهیز میکند تا بتواند سره را از ناسره و به دیگر سخن واقعیت را از جعل تشخیص دهد و در گام نخست، این رباتها برای خواندن نامههای مردمی به سناتورهای ایالاتمتحده مورد استفاده قرار گرفت تا بتواند پیامهایی را که حقیقتاً توسط مردم نوشته شدهاست از پیامهای جعلی جداکند. این رباتها که قابلیت یادگیرندگی نیز دارند، هر چقدر بیشتر با مردم و دادهها آشنا بشوند بیشتر میتوانند مؤثر عمل کنند. هر چند که همین ویژگی جزو نقاط ضعف این رباتها نیز محسوب میشود، بدین شکل که با تقلید رباتها از لحن صدای مردم، انکار چیزی که ننوشتند یا بیان نکردند نیز به مراتب دشوارتر خواهد شد.
اخبار جعلی عادی در حال حاضر خطرناک است و همانطور که در مورد Brexit و انتخابات ایالات متحده شاهد بودیم، میتواند بر انتخابات تأثیر بگذارد، اما اخبار جعلی که به هوش مصنوعی نیز تجهیز شدهاند به مراتب خطرناکتر خواهند بود؛ چراکه تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر میشود.
دلایل بسیاری را نیز میتوان برای این خطرناک بودن بیان داشت که مهمترین آنها عبارت است از:
۱. اطلاعات و اخبار معتبر و موثق برای اداره جامعه بسیار مهم است؛ چراکه یکی از عوامل پیشگیرانه تبدیل دموکراسی به دیکتاتوری با کنترل روی افراد قدرت نیز تلقی میشود. رسانه باید بتواند افراد را نسبت به عملکرد خود مسئولپذیر کند، ولی چنانچه نتواند تشخیص دهد که واقعیت چیست و جعل کدام است، انجام این وظیفه بسیار دشوار میشود. در نقطه مقابل نیز، دیکتاتورها میتوانند تمامی مخالفان خود را ساکت کنند و با استفاده از جعل عمیق منکر هر چیزی شوند. پس بسیار حائز اهمیت است که بدانیم چنانچه دیگر نتوانیم واقعیت را تشخیص دهیم وارد شرایط بسیار خطرناکی خواهیم شد.
۲. جعل عمیق علاوه بر آنکه تهدیدی برای دموکراسی است، عامل تهدیدی برای بازارهای مالی و سرمایه نیز تلقی میشود؛ چراکه به سادگی میتواند روایتهای ساختگی نسبت به شرکتها ایجاد کرده و روی قیمتهای بازار سهام تأثیر بگذارد. امری که هم اکنون نیز با استفاده از اخبار جعلی عادی شاهدش هستیم و میبینیم که با یک خبر چگونه بازارهای مالی دچار تشنج میشوند.
۳. جدیترین عامل نیز «بیعلاقگی نسبت به واقعیت (Reality Apathy)» است که بر این اساس، مردم دیگر خستهشده و به اخبار هیچتوجهی نمیکنند؛ چراکه میدانند به هر حال بیشترین چیزی که مشاهده میکنند، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود.
به یقین با مشکلی بزرگ مواجه هستیم! و هرچه اخبار جعلی به همراه هوش مصنوعی پیشرفتهتر شود، رفع این مشکل نیز به مراتب دشوارتر خواهد بود. از همین رو تنها کاری که میتوان پیشنهاد داد این است که یک همت جمعی ایجاد شود و با عاملان برجسته جعل عمیق مقابله صورت پذیرد! چراکه بحران دیپ فیک، به قدری عظیم است که هرکسی با یک رایانه میتواند به انتشار انواع و اقسام اخبار جعلی بپردازد. با این وجود، اینگونه نیست که ما هیچ راهحلی نیز نداریم و چند مورد را میتوان نام برد که یاریگر مناسبی برای حل مشکل اخبار جعلی مجهز به هوش مصنوعی هستند:
۱. ما باید با کمک هوش مصنوعی و جامعه با اخبار جعلی مجهز به هوش مصنوعی مقابله کنیم؛ همانطور که توانستیم با کمک یک همبستگی جهانی، اطلاعات قابلتوجهی در ویکی پدیا منتشر کنیم، میتوانیم با یاری جُستن از مردم و بهرهمندی از فناوری، به مبارزه با جعل عمیق اقدام کنیم.
۲. باید یک نهاد حاکم جهانی برای قانونگذاری در خصوص هوش مصنوعی ایجاد شود؛ این نهاد میتواند توسط سازمان ملل تأسیس شود تا با سطح مدیریتی بالایی اداره شود. نسبت به این تأسیس البته میتوان امیدوار و خوشبین بود؛ چراکه مؤسسه تحقیقات بینالمللی جرم و عدالت سازمان ملل (UNICRI) نیز مرکز اطلاعات هوش مصنوعی و رباتیک را راهاندازی کرده که قرار است به عنوان یک مرکز بینالمللی در امور مربوط به هوش مصنوعی و رباتیک خدمت کند. هر چند که این کافی نیست.
۳. باید اخلاق هوش مصنوعی بیش از پیش جدی گرفتهشود! تا جایی که ضرورت دارد برنامهنویسان، دانشمندان علم داده و توسعهدهندگان هوش مصنوعی نوعی سوگند بقراط را به مانند پزشکان امضا کنند و در این راستا باید پیش از شروع فعالیت، به دورههایی که به اخلاق هوش مصنوعی میپردازد، وارد شوند. دورههایی که هم اکنون نیز به طور مشترک توسط دانشگاه هاروارد و مؤسسه فناوری ماساچوست در زمینه اخلاق و هوش مصنوعی برگزار میشود. نیک مبرهن است که صرفاً یک سوگند یا شرکت در دوره منجر به فساد و اخلاقگریزی نخواهد شد، اما حداقل یک مسیر درست به توسعهدهندگان نشان داده خواهد شد تا در نهایت آنها بمانند و وجدانشان!
به عنوان پایان نوشتار لازم است ذکر شود که اگر به مشکلات هوش مصنوعی توجه نشود، به مراتب مقابله با آن دشوارتر و مشکلات نیز بسیار بیشتر خواهد شد. بنابراین مطلوب آن است که عوارض جانبی این فناوری درخشان هرچه زودتر برطرف شود و از یاد نبریم که استفاده مسئولانه از هوش مصنوعی میتواند به دموکراتیزه شدن یک جامعه کمک شایانتوجهی کند.
نویسنده: مارک ون رایمنام عضو هیئت علمی مؤسسه تحقیقات بلاکچین کانادا
* مترجم: سینا تفنگ چی، مدرس علوم ارتباطات دانشگاه پیامنور