هفته گذشته ویدئویی در شبکه های اجتماعی منتشر گردید که در آن زنی در طول یک دقیقه با تغییر چهره خود به چند سلبریتی، سایتی را برای ساختن ویدئوهای مشابه به کاربران معرفی میکند. این ویدئو به سرعت در فضای مجازی وایرال شد و بار دیگر صحبت از ظرفیتها و عجایب هوش مصنوعی و دیپ فیک را بر سر زبانها انداخت.
همین چند روز پیش بود که خبری منتشر شد مبنی بر آنکه صدها دانشمند از دنیای فناوری و چهره های دانشگاهی طی نامهای با جمع آوری امضا، خواستار متوقف شدن توسعه هوش مصنوعی شده بودند. چهره هایی آشنا همانند ایلان ماسک، استیو وزنیاک بنیانگذار اپل و یووال نوح هراری مورخ و فیلسوف سرشناس جزو امضاکنندگان این نامه هستند و نسبت به خطرات هوش مصنوعی برای نوع بشر هشدار داده اند. در این نامه مخالفت با توسعه هوش مصنوعی خوداشتغالی و افزایش اطلاعات نادرست بهعنوان دو مورد از نگرانیهای اصلی پیرامون فناوریهای هوش مصنوعی بر شمرده شده است. در ادامه این نامه نیز چنین آمده است که اگر چنین توقفی به سرعت عملی نشود، دولتها باید وارد عمل شده و روند پروژههای هوش مصنوعی را به حالت تعلیق در آورند.
دیپ فیک هم یکی از ثمرات هوش مصنوعی به شمار میرود. دیپ فیک یا جعل عمیق، ترکیبی از کلمههای «یادگیری عمیق» و «جعلی» است. دیپ فیک، تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد و از یک تکنیک یادگیری ماشین به نام «شبکههای زایای دشمن گونه» (GAN) استفاده میکند. ویدیوی جعلی ساخته شده، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
خب این فناوری در عین جذابیت میتواند دردسرهای زیادی را ایجاد کند. ابتدا به سراغ جذابیت آن میرویم. فناوری جعل عمیق به قدری جذاب بوده است که تاکنون برنامههای زیادی برای ارائه این سرویس در بازارهای مجازی عرضه شده و روز به روز تعداد این برنامهها و کیفیت خدمات آنها در حال افزایش میباشد. میزان استقبال از دیپ فیک به حدی بوده است که برنامه اسنپچت نیز این قابلیت را به فیلترهای خود اضافه کرده است. علاوه بر این، کاربری این برنامهها نیز آسانتر میگردد؛ به طوریکه بسیاری از کاربران آماتور و جوانان و نوجوانان بدون هیچ دانش تخصصی میتوانند از سرویسها و خدمات آنها استفاده کنند. هر چند سرعت خروجیهای جدید فناوری هوش مصنوعی به شدت بالا است، اما هنوز معایب و مزایای بسیاری از این سرویسها و خدمات شناسایی نشده است. به عنوان مثال این ویدئوهای جعل عمیق میتوانند مورد سوء استفاده اخلاقی و یا سیاسی قرار بگیرند و افراد مشهور بیش از دیگران در معرض آسیبهای ناشی از جعل عمیق قرار دارند. تولید این ویدئوها در حوزه مسائل غیر اخلاقی و سیاسی، حتی در صورت احراز جعل بودنشان برای کاربران، میتوانند تاثیرات روانشناختی بر افکار عمومی داشته باشند. هر چند مقابله با پدیدههای اینترنتی به سادگی ممکن نیست اما بسیاری از کشورها از جمله انگلستان و آمریکا برای تولیدکنندگان جعل عمیق ملاحظات قانونی وضع کردهاند و لازم است در قوانین مربوط به جرائم رایانهای در کشور ما نیز ملاحظات قانونی لحاظ گردد.
ارسال نظرات