اکنون ربات چت Gemini قادر است اطلاعاتی از قبیل جزئیات زندگی، سوابق شغلی و ترجیحات شخصی شما را به خاطر بسپارد. این ویژگی جدید به کاربران این امکان را میدهد که تجربهای شخصیتر و متناسب با نیازهای خود از این چت ربات داشته باشند.
همانطور که در شبکه اجتماعی X (توئیتر سابق) و حساب رسمی گوگل اعلام شده است، ویژگی “حافظه” برای برخی از کاربران ربات چت Gemini آغاز شده است. این قابلیت مشابه حافظه موجود در ChatGPT عمل میکند و به ربات این امکان را میدهد که اطلاعات مربوط به مکالمات قبلی را در نظر بگیرد. به عنوان مثال، اگر به Gemini بگویید که غذاهای مورد علاقهتان چیست، در دفعات بعدی که از ربات درخواست توصیههای رستوران کنید، ممکن است پیشنهاداتش را بر اساس سلیقههای شما تنظیم کند. این ویژگی به کاربران کمک میکند تا تجربهای شخصیتر و متناسب با علایق خود از این چت ربات داشته باشند.
حافظه تنها برای مشترکین طرح Google One AI Premium که ماهانه ۲۰ دلار هزینه دارد، در دسترس است. طبق گزارش 9to5Google، این ویژگی هنوز به برنامههای Gemini در سیستمعاملهای iOS و Android اضافه نشده و در حال حاضر فقط برای کاربران وب قابل استفاده است.
در رابط کاربری ربات چت Gemini، گوگل چند نمونه از حافظههای مفید را معرفی کرده است که میتواند به کاربران کمک کند. به عنوان مثال، میتوان به مواردی مانند «از زبان ساده استفاده کنید و از اصطلاحات تخصصی خودداری کنید»، «من فقط میتوانم کد را در جاوا اسکریپت بنویسم» و «هنگام برنامهریزی سفر، هزینه روزانه را درج کنید» اشاره کرد. این شرکت همچنین اعلام کرده است که این ویژگی، که در حال حاضر تنها از درخواستهای انگلیسی زبان پشتیبانی میکند، میتواند در هر زمان غیرفعال شود. با این حال، حافظهها تا زمانی که به صورت دستی حذف نشوند، ذخیره خواهند شد.
اما باید توجه داشت که اطلاعات ذخیره شده در حافظههای Gemini برای آموزش مدلها استفاده نمیشود. سخنگوی گوگل در گفتوگویی با TechCrunch از طریق ایمیل اعلام کرد: “اطلاعات ذخیره شده شما هرگز به اشتراک گذاشته نمیشود و برای آموزش مدلها مورد استفاده قرار نخواهد گرفت.” این موضوع نشاندهنده تعهد گوگل به حفظ حریم خصوصی کاربران است.
ویژگیهای حافظه در چت رباتهایی مانند ChatGPT و Gemini در صورتی که سازوکار های امنیتی به دقت طراحی نشده باشند، میتوانند آسیبپذیر باشند. در اوایل سال جاری، یک محقق امنیتی متوجه شد که هکرها قادرند به طور مخفیانه خاطرات “کاذب” را در ChatGPT جاسازی کنند و به این ترتیب به طور مؤثر دادههای کاربران را برای همیشه به سرقت ببرند. این موضوع اهمیت طراحی و پیادهسازی صحیح تدابیر امنیتی را در این نوع فناوریها نشان میدهد.
منبع: techcrunch









