چرا نباید اطلاعات محرمانه خود را در ChatGPT وارد کنیم؟


ChatGPT این روزها بسیار خبرساز شده و در کنار عملکردهای فوق العاده‌ای که دارد،‌ برخی نگرانی‌ها را نیز به وجود آورده است. به عنوان مثال، این چت هوش مصنوعی به یک مشکل امنیتی و ناقض حفظ حریم خصوصی تبدیل شده، زیرا بسیاری از کاربران اطلاعات خصوصی خود را در آن به اشتراک می‌گذاریم. باید بدانید که ChatGPT هر مکالمه‌ای را که با آن انجام می‌دهید، از جمله اطلاعات شخصی‌ای که به اشتراک می‌گذارید، ثبت و ذخیره می‌کند. با این حال، بسیاری از کاربران این موضوع را نمی‌دانند چون که هیچ توجهی به قوانین و سیاست‌های حفظ حریم خصوصی و صفحه پرسش‌های متداول OpenAI ندارند و طبق طبق معمول با زدن دکمه تأیید از آن رد می‌شوند.

افشای اطلاعات خصوصی برای همه افراد ناخوشایند است، اما این مسئله برای شرکت‌های بزرگ که از ChatGPT برای پردازش اطلاعات روزمره خود استفاده می‌کنند، پررنگ‌تر بوده و می‌تواند شروع یک فاجعه بزرگ باشد.

افشای اطلاعات محرمانه سامسونگ از طریق ChatGPT

طبق گزارش Gizmodo، کارمندان سامسونگ به اشتباه اطلاعات محرمانه خود را از طریق ChatGPT در سه نوبت جداگانه در مدت 20 روز فاش کردند! این فقط گوشه‌ای از این واقعیت است که شرکت‌ها چقدر آسان در معرض خطر قرار دارند و به واسطه استفاده نامناسب از هوش مصنوعی، اطلاعات خصوصی آن‌ها به بیرون درز می‌کند.

ChatGPT به دلیل مسائل مربوط به حفظ حریم خصوصی در نزد افکار عمومی مورد انتقاد قرار گرفته، بنابراین سامسونگ سهل‌انگاری بزرگی کرده که اجازه داده است این اتفاق بیفتد. حتی برخی از کشورها ChatGPT را برای محافظت از شهروندان خود تا زمانی که قوانین حریم خصوصی آن بهبود یابند، ممنوع کرده‌اند. پس کاملاً منطقی است که شرکت‌ها در مورد نحوه استفاده کارکنانشان از این فناوری نو ظهور دقت بیشتری داشته باشند.

ChatGPT

خوشبختانه، به نظر می‌رسد که مشتریان سامسونگ حداقل در حال حاضر در امنیت هستند و داده‌های فاش شده تنها مربوط به سیاست‌های تجاری داخلی، برخی کدهای اختصاصی، و صورتجلسه‌های یک جلسه تیمی هستند که همه توسط کارمندان این شرکت با ChatGPT به اشتراک گذاشته شده‌اند. اما نکته اینجاست که فاش کردن اطلاعات شخصی کاربران نیز می‌تواند به همین راحتی توسط کارکنان شرکت‌های بزرگ انجام شود و به نظر می‌رسد دیر یا زود شاهد چنین اتفاقی نیز خواهیم بود. اتفاقی که اگر رخ دهد، می‌توان انتظار داشت که شاهد افزایش گسترده کلاهبرداری‌های فیشینگ و جعل هویت باشیم.

در این بین خطر دیگری هم وجود دارد. اگر کارمندان شرکت‌ها برای برطرف کردن باگ‌های نرم افزاری محصولات خود از ChatGPT استفاده کنند (مانند همان اتفاقی که برای سامسونگ افتاد)، کدهایی که در کادر چت تایپ می‌کنند در سرورهای OpenAI نیز ذخیره می‌شود و این می‌تواند منجر به ایجاد نقص‌های امنیتی جدید و هک‌های بعدی شود که تأثیر زیادی بر شرکت‌ها در عیب‌یابی محصولات و برنامه‌های منتشر نشده خواهد داشت. حتی ممکن است در نهایت شاهد افشای اطلاعاتی مانند طرح‌های تجاری منتشر نشده، نسخه‌های آتی و نمونه‌های اولیه باشیم که می‌تواند ضررهای مالی زیادی را برای شرکت‌ها به همراه داشته باشد.

بیشتر بخوانید:

  • آیا هوش مصنوعی خطرناک است؟ با خطرات آنی این فناوری نوین آشنا شوید

افشای اطلاعات توسط ChatGPT چگونه اتفاق می‌افتد؟

خط مشی رازداری ChatGPT به وضوح نشان می‌دهد که این ابزار چت هوش مصنوعی مکالمات شما را ضبط می‌کند و گزارش آن‌ها را با سایر شرکت‌ها و مربیان هوش مصنوعی خود به اشتراک می‌گذارد. هنگامی که شخصی (به عنوان مثال، یکی از کارمندان سامسونگ) اطلاعات محرمانه را در کادر محاوره‌ای تایپ می‌کند، این اطلاعات در سرورهای ChatGPT ثبت و ذخیره می‌شوند.

خیلی بعید است که کارمندان عمداً چنین کاری را انجام دهند و همین مسئله است که بسیار ترسناک است. معمولاً بیشتر درزهای اطلاعاتی ناشی از خطای انسانی است و اغلب نیز به این دلیل است که شرکت‌ها نتوانسته‌اند کارکنان خود را در مورد خطرات حریم خصوصی هنگام استفاده از ابزارهایی مانند هوش مصنوعی به درستی آموزش دهند.

ChatGPT

به عنوان مثال، اگر کارمندی برای ساده کردن کار خود، لیست عریض و طویل کاربران شرکت را در ChatGPT وارد کرده و از هوش مصنوعی بخواهند شماره تلفن مشتریان را از سایر داده‌ها جدا کند، ChatGPT تمامی نام‌ها و شماره تلفن‌ها را در سوابق خود ذخیره خواهد کرد. به همین سادگی، اطلاعات خصوصی شما در اختیار شرکت‌هایی قرار می‌گیرد که قرار نبود به آن‌ها دسترسی داشته باشند و این شرکت‌ها احتمالاً در حفظ و نگهداری اطلاعات جدیت زیادی نخواهند داشت.

نتیجه: اطلاعات محرمانه خود را با ChatGPT به اشتراک نگذارید

می‌توانید با خیال راحت از ChatGPT در کارهای مختلف خود استفاده کنید، اما اطلاعات محرمانه را به هیچ وجه نباید با این ابزار به اشتراک بگذارید. باید مراقب بوده و از تایپ کردن هر چیزی که شخصی است خودداری کنید؛ از جمله نام، آدرس، ایمیل و شماره تلفن. این اشتباه در حین مکالمه به سادگی اتفاق می‌افتد، بنابراین باید مراقب باشید که سؤالات خود از هوش مصنوعی را به دقت بررسی کنید تا مطمئن شوید که هیچ چیز محرمانه‌ای به طور تصادفی وارد نشده است.

افشای اطلاعات محرمانه سامسونگ به ما نشان می‌دهد که خطر نشت داده‌های مربوط به ChatGPT چقدر واقعی است. متأسفانه، در آینده ما شاهد تعداد بیشتری از این نوع اشتباهات خواهیم بود و شاید اثرات آن بسیار بزرگ‌تر و شدیدتر هم باشد. زیرا هوش مصنوعی روز به روز در حال گسترش بوده و به بخش اصلی در فرآیندهای کاری بیشتر مشاغل تبدیل می‌شود.

بدون دیدگاه

دیدگاهتان را بنویسید