• امروز : شنبه, ۶ مرداد , ۱۴۰۳
  • برابر با : Saturday - 27 July - 2024
امروز 0
16

چهره‌ جعلی هوش مصنوعی، قابل اعتمادتر از چهره انسان

  • کد خبر : 2874
  • ۳۰ بهمن ۱۴۰۰ - ۱۹:۰۲
چهره‌ جعلی هوش مصنوعی، قابل اعتمادتر از چهره انسان
چهره‌های مصنوعی ۷. ۷ برابر قابل‌ اعتمادتر از چهره‌های واقعی و زنان به‌ مراتب قابل‌ اعتمادتر از مردها بودند.

چهره‌ جعلی هوش مصنوعی، قابل اعتمادتر از چهره انسان

به گزارش متااپست به نقل از ايتنا،یک پژوهش جدید حاکی از آن است که به نظر می‌رسد چهره‌های جعلی ایجاد شده با هوش مصنوعی برای انسان قابل‌ اعتمادتر از صورت‌های واقعی است.

فروشگاه زیبایی سبز

این فناوری که به نام «جعل عمیق» شناخته می‌شود، یک روش یادگیری الگوریتمی آموزش کامپیوتر است که در آن از هوش مصنوعی و آموزش عمیق برای ایجاد چهره‌هایی که به نظر واقعی می‌آیند، استفاده می‌شود.

گاه حتی می‌توان از این روش برای القای پیام‌هایی ازجمله اهانت‌های جعلی باراک اوباما علیه دونالد ترامپ یا دست‌کاری ویدیوی سخنرانی ریچارد نیکسون برای آپولوی ۱۱ استفاده کرد که هرگز گفته نشده است.

پژوهشگران دست به آزمایشی زدند که در آن شرکت‌ کنندگان چهره‌های ایجادشده با الگوریتم «استایل گن ۲» (StyleGAN2) را در دو رده واقعی و جعلی قرار دادند. شرکت‌کنندگان در این آزمایش ۴۸ درصد موفقیت داشتند که کمی بیشتر از بالا انداختن یک سکه [بازی شیر یا خط] بود.

در دومین آزمایش به شرکت‌ کنندگان آموزش داده شد که چگونه با استفاده از همان رشته داده‌ها چهره‌های جعلی عمیق را ردیابی کنند، اما در این مورد صحت عمل آن‌ها با شاخص ۵۹ درصد، تنها قدری افزایش یافت.

پژوهش دانشگاه آکسفورد، دانشگاه براون و انجمن سلطنتی نیز این نتیجه‌گیری را تایید کرد و نشان می‌دهد که اغلب مردم حتی زمانی که به آن‌ها اطلاع داده می‌شود که ممکن است محتوای آنچه نگاه می‌کنند ازنظر دیجیتالی دست‌کاری شده باشد، نمی‌توانند بگویند آیا یک ویدیوی جعل عمیق را تماشا می‌کنند یا نه.

پژوهشگران سپس قابلیت اعتماد کردن را در کمک به تشخیص چهره‌ها و چهره واقعی انسان مورد آزمایش قرار دادند.

مطالب خواندنی :  روش جدید برای نقشه‌برداری از سیارات | هوش مصنوعی برنامه‌ برای ماه و مریخ را تغییر می‌دهد

دکتر سوفی نایتینگِیل از دانشگاه لنکستر و پرفسور هنی فرید از دانشگاه برکلی کالیفرنیا در نشریه «پروسیدینگز آو د نشنال اکدمی آو ساینسز» (Proceedings of the National Academy of Sciences‌) نوشته‌اند که «چهره‌ها منابع سرشاری از اطلاعات‌اند که تنها چند هزارم ثانیه قرار گرفتن در مقابل آن برای استنباط ویژگی‌هایی ازجمله قابل‌اعتماد بودن، کافی است. ما می‌خواستیم دریابیم که آیا چهره‌های مصنوعی می‌توانند همان قضاوت به قابل‌اعتماد بودن را ایجاد کند یا نه.

«اگرنه استنباط قابل‌اعتماد بودن می‌توانست به تشخیص واقعی یا جعلی بودن تصاویر مصنوعی کمک کند.»

متاسفانه [میانگین رده‌بندی] نشان داد که چهره‌های مصنوعی ۷. ۷ برابر قابل‌اعتمادتر از چهره‌های واقعی و زنان به‌ مراتب قابل‌ اعتمادتر از مردها بودند.

پژوهشگران در این گزارش می‌نویسند که «یک چهره خندان بیشتر در رده قابل‌اعتماد قرار می‌گیرد اما ۶۵.۵ درصد چهره‌های واقعی و ۵۸.۸ درصد چهره‌های مصنوعی خندان هستند، بنابراین حالت صورت به‌ تنهایی نمی‌تواند علت قابل‌ اعتماد تلقی شدن صورت‌های مصنوعی را توجیه کند.»

https://dl.appest.ir/meta/2022/02/Artificial%20intelligence-5c4d364052%20(2).webp

آن‌ها می‌گویند احتمال دارد این چهره‌ها قابل‌ اعتمادتر تلقی ‌شوند زیرا آن‌ها نمادی از چهره‌های متعارفی‌اند که انسان درمجموع قابل‌ اعتمادتر می‌بیند.

محققان می‌گویند باید دستورالعمل‌هایی برای ایجاد و توزیع تصاویر جعل عمیق در نظر گرفته شود. آن‌ها برای نمونه به «گنجاندن نشانه‌های قوی» و در نظر گرفتن «برخورد اغلب توام با بی‌بندوباری به جامعه و انتشار بدون محدودیت کدهایی که همگان می‌توانند وارد هر اپلیکیشنی کنند» اشاره کرده‌اند.

گزارش «یونیورسیتی کالج لندن» حاکی از آن است که جرایم مرتبط با جعل عمیق می‌تواند یکی از خطرناک‌ترین انواع بزهکاری با هوش مصنوعی باشد.

دکتر متیو کالدول می‌گوید: «مردم اکنون بخش عمده‌ای از زندگی‌شان را در اینترنت صرف می‌کنند و فعالیت‌های آنلاین آن‌ها می‌تواند به شهرت دیگران لطمه بزند. چنین محیط اینترنتی که داده‌ها در جایگاه دارایی‌ها و اطلاعات قدرت است، برای فعالیت‌های بزهکارانه مبتنی بر هوش مصنوعی ایده‌آل است.

مطالب خواندنی :  تصویری شگفت‌انگیز از پرواز بالگرد روباتیک ناسا در مریخ

«برخلاف بسیاری از جرایم سنتی، جرم در قلمرو دیجیتال می‌تواند به‌ راحتی به اشتراک گذاشته شود و حتی به فروش برسد و به روش‌های بزهکارانه اجازه بازاریابی بدهد و خدمات ارائه کند. این به معنی آن است که بزهکاران احتمالا می‌توانند جنبه‌های چالشی‌تر جرمی را که بر هوش مصنوعی مبتنی است برون‌سپاری کنند.»

در حال حاضر، مورد استفاده عمده جعل عمیق در پورنوگرافی است. یک گزارش پژوهشی در ژوئن سال ۲۰۲۰، نشان داد که ۹۶ درصد تمام موارد جعل عمیق در زمینه پورنوگرافی بود که  ۱۰۰ درصد آن زنان را دربرگرفته است.

منبع: ایندیپندنت

فروشگاه کوکوهوم
لینک کوتاه : https://www.appest.ir/?p=2874

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.