ChatGPT بارها ثابت شده است می تواند پاسخ های اشتباهی ارائه دهد و در کنار آنها بایستید تلاش CNET برای انتشار 100٪ محتوای نوشته شده با هوش مصنوعی منجر به اصلاح شتابزده پنج نادرستی آنها شد. اشتباهات ریاضی اعتماد را منتقل نمی کند، اما تصور کنید اگر چنین متن هایی در سایت های خبری بهداشت و درمان منتشر شود چه اتفاقی می افتد.
ChatGPT OpenAI – یک چت ربات مبتنی بر هوش مصنوعی – در نوامبر 2022 منتشر شد و تا ژانویه 2023 100 میلیون کاربر داشت و آن را تبدیل به یک سریع ترین برنامه در حال رشد در تاریخ. ChatGPT دچار نشت اطلاعات شد سه ماه بعد به دلیل خطای خودش. این نشت بحث داغی را در مورد ایمنی سرویس و آسیب احتمالی آن ایجاد کرد. در واقعیت، ChatGPT بر خلاف هر نرم افزار دیگری است. برای الگوریتم های یادگیری ماشینی (ML) خود به مقدار قابل توجهی داده نیاز دارد. به طور طبیعی، این سوال مطرح می شود که آیا می تواند از آن داده ها محافظت کند؟
مسائل امنیتی هوش مصنوعی
بررسی امنیت سرویس ضروری است. در واقعیت، به احتمال زیاد پاسخ دقیقی دریافت نخواهید کرد، زیرا هنوز برای بحث در مورد امنیت ابزارهای هوش مصنوعی در این مرحله نوزادی زود است.
همانطور که قبلا ذکر شد، خدمات مبتنی بر هوش مصنوعی به دسترسی بی سابقه ای به مخازن داده های عظیم نیاز دارند. بدون آن، یادگیری ماشین منسوخ میشود، زیرا اطلاعاتی برای پیشبینیهای دقیق یا ،وجیهای داده مانند مقالهها، کد نرمافزار، توصیههای شخصیشده و مواردی از این دست ندارد.
تولیدکنندهها و مترجمهای متنی فعلی هوش مصنوعی نتایج تقریباً عالی را تولید میکنند. البته تا کنون نمی توانند جایگزین متن نوشته شده توسط انسان یا ترجمه خلاقانه شوند. از سوی دیگر، فیشینگ اغلب کاربران ارشد اینترنت را هدف قرار می دهد که به اندازه نسل های جوان تر نسبت به ایمیل ها شک ندارند. یک متن صحیح دستوری با نام و نام خانوادگی و چند بیت اطلاعات شخصی ممکن است فقط کافی باشد تا آنها را متقاعد کند که روی یک ، لینک عفونی کلیک کنند.
ChatGPT منبع باز است و اگر آسیبپذیریهایی وجود داشته باشد (و احتمال وجود آن بسیار زیاد است)، برای رفع آنها باید به OpenAI اعتماد کنید. تا آن زمان، ارتقای پروتکلهای امنیت سایبری بهترین کار است اگر تصمیم دارید به این ابزار با دادههای محرمانه اعتماد کنید.
3. از همه داده ها محافظت کنید
مسائل امنیتی فعلی هوش مصنوعی در درجه اول به دو دسته ت،یم می شوند: امنیت اطلاعات و حریم خصوصی و امنیت سایبری.
ابزارهای مجهز به هوش مصنوعی به داده های زیادی نیاز دارند که نیاز به نظارت استثنایی دارد. اول از همه، این داده ها باید در جایی ذخیره شوند. ،بوکارهای بزرگ میتوانند ساختار سرور امن خود را با فایروالهای گران قیمت و ارزیابی ریسک در زمان واقعی بسازند. رمزگذاری سرورها برای حفظ امنیت و رعایت آنها ا،امی است پروتکل های GDPR یا CCPA.
حتی بهتر است دادههای محرمانه را با رمزگذاری، با کلیدهای رمزگشایی که به صورت محلی در دستگاه مورد اعتماد شما ذخیره میشوند، آپلود کنید. هیچ ، دیگری نمی تواند به داده ها دسترسی داشته باشد. شما حقوق دسترسی انحصاری را حفظ می کنید. اگر تصمیم دارید خارج از امنیت ش،ه محل کار به فضای ذخیره سازی ابری دسترسی داشته باشید، از VPN برای اعمال رمزگذاری اضافی در ترافیک آنلاین استفاده کنید و از نظارت آنلاین شخص ثالث جلوگیری کنید.
نتیجه
با در نظر گرفتن همه این موارد، ما سه نکته را برای استفاده ایمن از هوش مصنوعی در وضعیت فعلی آن بیان خواهیم کرد. به هر حال، مزایایی که ارائه می دهد فوق العاده است، بنابراین در اینجا آنچه می تو،د انجام دهید تا در سمت امن باشید.
1. نظارت انس، را کاهش ندهید
استفاده از نرم افزار هوش مصنوعی برای تولید محتوا راهی موثر برای تولید ایده یا غلبه بر موانع کوچک نویسنده است. با این حال، بسته به متن، ارائه اطلاعات به شما خطرناک است. هر واقعیت باید دوبار بررسی شود، و همین امر در مورد کد نرم افزار یا پاسخ های بینگ چت نیز صدق می کند.
2. مراقب امنیت سایبری باشید
نه حتی نیم سال در فضای باز، و ChatGPT قبلاً نقض حریم خصوصی را نشان داده است. همزمان، همانطور که کارمندان سامسونگ می توانند تایید کنند، اعتماد به این چت بات با داده های محرمانه شرکت شما ممکن است بدترین ایده باشد.
درک این نکته ضروری است که فناوری های مبتنی بر هوش مصنوعی به هیچ وجه از نظر طراحی ایمن نیستند. هر چقدر هم که پیشگام باشند، خطرات می توانند در مراحل اولیه از مزایای آن بیشتر باشد.
اگر تصمیم دارید از فناوریهای یادگیری ماشینی برای بهبود عملیات تجاری خود استفاده کنید، باید بهویژه مراقب بهبود امنیت سایبری باشید. دسترسی آنها به داده های محرمانه شرکت، به دلیل عدم بیان بهتر، همه تخم مرغ ها را در یک سبد قرار می دهد.
هکرها ده ها سال است که به دنبال ورود به اسرار شرکت ها بوده اند و نرم افزار هوش مصنوعی می تواند تا زم، که به اندازه کافی ایمن نشده باشد. یک موضوع قابل توجه جدید بودن این خدمات است. بر روی لبه خونریزی قرار گرفته است اما نیاز به دسترسی به حیاتی ترین داده ها دارد.
با این حال، شما هنوز به داده های شخص ثالث اعتماد دارید. به همین دلیل است که تأیید پروتکل های رمزگذاری، امنیت دسترسی به سرور فیزیکی و قو،ن پشتیبان گیری از داده ها ضروری است.
سرویسهایی مانند ChatGPT قبلاً مشکلات امنیتی را نشان دادهاند، اما اگر خود را با نرمافزارهای پیشرفته امنیت سایبری مسلح کنید، میتو،د ایمنی آنها را به میزان قابل توجهی بهبود بخشید.