03 خرداد 1402 - 10:57

پایگاه رهنما:

هفته گذشته ویدئویی در شبکه­ های اجتماعی منتشر گردید که در آن زنی در طول یک دقیقه با تغییر چهره خود به چند سلبریتی­، سایتی را برای ساختن ویدئوهای مشابه به کاربران معرفی می­کند. این ویدئو به سرعت در فضای مجازی وایرال شد و بار دیگر صحبت از ظرفیت­ها و عجایب هوش مصنوعی و دیپ فیک را بر سر زبان­ها انداخت.

همین چند روز پیش بود که خبری منتشر شد مبنی بر آنکه صدها دانشمند از دنیای فناوری و چهره ­های دانشگاهی طی نامه­ای با جمع ­آوری امضا، خواستار متوقف شدن توسعه هوش مصنوعی شده بودند. چهره­ هایی آشنا همانند ایلان ماسک، استیو وزنیاک بنیان‌گذار اپل و یووال نوح هراری مورخ و فیلسوف سرشناس جزو امضاکنندگان این نامه هستند و نسبت به خطرات هوش مصنوعی برای نوع بشر هشدار داده اند. در این نامه مخالفت با توسعه هوش مصنوعی خوداشتغالی و افزایش اطلاعات نادرست به‌عنوان دو مورد از نگرانی‌های اصلی پیرامون فناوری‌های هوش مصنوعی بر شمرده شده است. در ادامه این نامه نیز چنین آمده است که اگر چنین توقفی به سرعت عملی نشود، دولت‌ها باید وارد عمل شده و روند پروژه‌های هوش مصنوعی را به حالت تعلیق در آورند.

دیپ فیک هم یکی از ثمرات هوش مصنوعی به شمار می­رود. دیپ فیک یا جعل عمیق، ترکیبی از کلمه‌های «یادگیری عمیق» و «جعلی» است. دیپ فیک، تکنیکی برای ترکیب تصویر انسان ‏مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد و از یک ‏تکنیک یادگیری ماشین به نام «شبکه‌های زایای دشمن گونه» (‏GAN‏) استفاده می‌کند. ویدیوی جعلی ساخته شده، ترکیب فیلم‌های ‏موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است.‏

خب این فناوری در عین جذابیت می­تواند دردسرهای زیادی را ایجاد کند. ابتدا به سراغ جذابیت آن می­رویم. فناوری جعل عمیق به قدری جذاب بوده است که تاکنون برنامه­های زیادی برای ارائه این سرویس در بازارهای مجازی عرضه شده و روز به روز تعداد این برنامه­ها و کیفیت خدمات آنها در حال افزایش می­باشد. میزان استقبال از دیپ فیک به حدی بوده است که برنامه اسنپ‌چت نیز این قابلیت را به فیلترهای خود اضافه کرده است. علاوه بر این، کاربری این برنامه­ها نیز آسان­تر می­گردد؛ به طوریکه بسیاری از کاربران آماتور و جوانان و نوجوانان بدون هیچ دانش تخصصی می­توانند از سرویس­ها و خدمات آنها استفاده کنند. هر چند سرعت خروجی­های جدید فناوری هوش مصنوعی به شدت بالا است، اما هنوز معایب و مزایای بسیاری از این سرویس­ها و خدمات شناسایی نشده است. به عنوان مثال این ویدئوهای جعل عمیق می­توانند مورد سوء استفاده اخلاقی و یا سیاسی قرار بگیرند و افراد مشهور بیش از دیگران در معرض آسیب­های ناشی از جعل عمیق قرار دارند. تولید این ویدئوها در حوزه مسائل غیر اخلاقی و سیاسی، حتی در صورت احراز جعل بودنشان برای کاربران، می­توانند تاثیرات روانشناختی بر افکار عمومی داشته باشند. هر چند مقابله با پدیده­های اینترنتی به سادگی ممکن نیست اما بسیاری از کشورها از جمله انگلستان و آمریکا برای تولیدکنندگان جعل عمیق ملاحظات قانونی وضع کرده­اند و لازم است در قوانین مربوط به جرائم رایانه­ای در کشور ما نیز ملاحظات قانونی لحاظ گردد.

ارسال نظرات