Google مکالمات شما با Gemini را برای سال ها به صورت پیش فرض ذخیره می کند
هیچ چیزی را در Gemini، خانواده برنامههای GenAI Google تایپ نکنید، که جرمآمیز است – یا نمیخواهید شخص دیگری ببیند.
این همان PSA (نوعی) امروز Google است که در یک سند پشتیبانی جدید روشهای جمعآوری دادهها را از کاربران برنامههای چت بات Gemini برای وب، اندروید و iOS نشان میدهد.
به گزارش اپست به نقل از تک کرانچ، Google خاطرنشان میکند که حاشیهنویسهای انسانی به طور معمول مکالمات با Gemini را میخوانند، برچسبگذاری میکنند و پردازش میکنند – البته مکالمههایی که از حسابهای Google “قطع شدهاند” – برای بهبود این سرویس. (مشخص نیست که آیا این حاشیه نویس ها داخلی هستند یا برون سپاری شده اند، که ممکن است در مورد امنیت داده ها مهم باشد؛ گوگل نمی گوید.) این مکالمات تا سه سال به همراه «داده های مرتبط» مانند زبان ها حفظ می شوند. و دستگاه هایی که کاربر استفاده می کند و مکان آنها.
اکنون، گوگل به کاربران اجازه می دهد تا کنترل بیشتری بر روی اینکه کدام داده های مربوط به Gemini حفظ می شوند – و چگونه.
خاموش کردن Gemini Apps Activity در داشبورد My Activity Google (به طور پیشفرض فعال است) از ذخیره شدن مکالمههای آینده با Gemini در یک حساب Google برای بررسی جلوگیری میکند (به این معنی که پنجره سه ساله اعمال نمیشود). در همین حال، درخواستها و مکالمات فردی با Gemini را میتوان از صفحه فعالیت برنامههای Gemini حذف کرد.
اما گوگل می گوید که حتی زمانی که Gemini Apps Activity خاموش است، مکالمات Gemini تا ۷۲ ساعت در یک حساب Google ذخیره می شود تا “ایمنی و امنیت برنامه های Gemini حفظ شود و برنامه های Gemini بهبود یابد.”
Google مینویسد: «لطفاً اطلاعات محرمانه یا هر دادهای را که نمیخواهید بازبین ببیند یا Google برای بهبود محصولات، خدمات و فناوریهای یادگیری ماشینی ما استفاده کند، وارد نکنید.»
اگر منصف باشیم، سیاستهای جمعآوری و حفظ دادههای GenAI گوگل با سیاستهای رقبای خود تفاوت چندانی ندارد. برای مثال OpenAI، همه چتها را با ChatGPT به مدت ۳۰ روز ذخیره میکند، صرفنظر از اینکه ویژگی سابقه مکالمه ChatGPT خاموش باشد، به استثنای مواردی که کاربر در یک طرح در سطح سازمانی با خطمشی حفظ دادههای سفارشی مشترک شده باشد.
اما سیاست گوگل چالشهای ذاتی را در ایجاد تعادل در حریم خصوصی با توسعه مدلهای GenAI که از دادههای کاربر برای بهبود خود تغذیه میکنند، نشان میدهد.
سیاستهای لیبرال حفظ دادههای GenAI در گذشته اخیر، فروشندگان را در آب داغ با تنظیمکنندهها قرار داده است.
تابستان گذشته، FTC اطلاعات دقیقی را از OpenAI درخواست کرد که چگونه شرکت دادههای مورد استفاده برای آموزش مدلهای خود را بررسی میکند، از جمله دادههای مصرفکننده – و اینکه چگونه این دادهها در صورت دسترسی توسط اشخاص ثالث محافظت میشوند. در خارج از کشور، تنظیمکننده حریم خصوصی دادههای ایتالیا، سازمان حفاظت از دادههای ایتالیا، گفت که OpenAI فاقد «پایه قانونی» برای جمعآوری و ذخیره انبوه دادههای شخصی برای آموزش مدلهای GenAI خود است.
با گسترش ابزارهای GenAI، سازمان ها به طور فزاینده ای نسبت به خطرات حفظ حریم خصوصی محتاط می شوند.
یک نظرسنجی اخیر از سیسکو نشان داد که ۶۳٪ از شرکت ها محدودیت هایی در مورد اینکه چه داده هایی را می توان در ابزارهای GenAI وارد کرد، ایجاد کرده اند، در حالی که ۲۷٪ GenAI را به طور کلی ممنوع کرده اند. همین نظرسنجی نشان داد که ۴۵ درصد از کارمندان دادههای «مشکلآمیز» را در ابزار GenAI وارد کردهاند، از جمله اطلاعات کارمندان و پروندههای غیر عمومی درباره کارفرمای خود.
OpenAI، مایکروسافت، آمازون، گوگل و سایرین محصولات GenAI را برای شرکتهایی ارائه میکنند که صراحتاً دادهها را برای مدت زمان طولانی حفظ نمیکنند، چه برای آموزش مدل یا هر هدف دیگری. با این حال، مصرفکنندگان – همانطور که اغلب اتفاق میافتد – انتهای کوتاه را به دست میآورند.