۶ روش مضر ChatGPT که می تواند توسط کاربران نا اهل استفاده شود
۱۴۰۲-۰۹-۱۹
خواندن این مطلب 4 دقیقه زمان میبرد
برای همه چیزهای خوبی که میتوانید با ChatGPT جدید OpenAI انجام دهید، باید از روشهایی که میتواند توسط افرادی با اهداف مخرب استفاده شود نیز آگاه باشید.
این هفته، نگرانی ها در مورد خطرات هوش مصنوعی مولد به بالاترین حد خود رسید. سام آلتمن، مدیر عامل OpenAI حتی در جلسه استماع کمیته قضایی سنا برای رسیدگی به خطرات و آینده هوش مصنوعی شهادت داد. مطالعهای که هفته گذشته منتشر شد، شش خطر امنیتی مختلف مربوط به استفاده از ChatGPT را شناسایی کرد.
به گزارش اخبار تایمز؛ این خطرات شامل پتانسیل استفاده کاربران بد از ChatGPT برای تولید سرویسهای جعلی، جمعآوری اطلاعات مضر، افشای دادههای خصوصی، تولید متن مخرب، تولید کدهای مخرب و تولید محتوای توهینآمیز است.
بر اساس این مطالعه، در اینجا خلاصه ای از آنچه که هر خطر مستلزم آن است و آنچه باید به آن توجه کنید، آورده شده است.
جمع آوری اطلاعات
فردی که با نیت مخرب عمل می کند می تواند اطلاعاتی را از ChatGPT جمع آوری کند که بعداً می تواند برای آسیب استفاده کند. از آنجایی که ChatGPT بر روی حجم زیادی از داده ها آموزش دیده است، اطلاعات زیادی را می داند که در صورت قرار گرفتن در دستان نادرست می تواند به سلاح تبدیل شود.
در این مطالعه، ChatGPT خواسته می شود تا سیستم فناوری اطلاعات یک بانک خاص را فاش کند. ChatGPT با استفاده از اطلاعات در دسترس عموم، سیستم های فناوری اطلاعات مختلفی را که بانک مورد نظر استفاده می کند جمع آوری می کند. این فقط نمونهای از یک بازیگر مخرب است که از ChatGPT برای یافتن اطلاعاتی استفاده میکند که میتواند به آنها آسیب برساند.
این مطالعه میگوید: «این میتواند برای کمک به اولین گام حمله سایبری، زمانی که مهاجم در حال جمعآوری اطلاعات درباره هدف برای یافتن مکان و نحوه حمله مؤثرتر است، استفاده شود».
متن مخرب
یکی از محبوب ترین ویژگی های ChatGPT توانایی آن در تولید متنی است که می توان از آن برای نوشتن مقاله، ایمیل، آهنگ و موارد دیگر استفاده کرد. با این حال، از این توانایی نوشتن می توان برای ایجاد متن مضر نیز استفاده کرد.
نمونههایی از تولید متن مضر میتواند شامل ایجاد کمپینهای فیشینگ، اطلاعات نادرست مانند مقالات اخبار جعلی، هرزنامهها و حتی جعل هویت باشد که در این مطالعه مشخص شده است.
برای آزمایش این خطر، نویسندگان در این مطالعه از ChatGPT برای ایجاد یک کمپین فیشینگ استفاده کردند، که به کارکنان اجازه میدهد از افزایش دستمزد جعلی با دستورالعملهایی برای باز کردن یک برگه اکسل پیوست که حاوی بدافزار است مطلع شوند. همانطور که انتظار می رفت، ChatGPT یک ایمیل قابل قبول و باورپذیر تولید کرد.
تولید کد مخرب
همانند تواناییهای شگفتانگیز نوشتن ChatGPT، تواناییهای برنامهنویسی چشمگیر ChatGPT برای بسیاری به ابزاری مفید تبدیل شده است. با این حال، توانایی چت بات برای تولید کد نیز می تواند برای آسیب استفاده شود. کد ChatGPT را می توان برای تولید کد سریع استفاده کرد و به مهاجمان این امکان را می دهد که حتی با دانش محدود برنامه نویسی، تهدیدات را سریعتر اجرا کنند.
علاوه بر این، ChatGPT میتواند برای تولید کد مبهم مورد استفاده قرار گیرد، که تشخیص فعالیتهای مخرب و اجتناب از نرمافزار آنتیویروس را برای تحلیلگران امنیتی دشوارتر میکند.
در مثال، ChatGPT از تولید کد مخرب خودداری می کند، اما با تولید کدی موافقت می کند که بتواند آسیب پذیری Log4j را در یک سیستم آزمایش کند.
تولید محتوای غیر اخلاقی
ChatGPT دارای حفاظ هایی برای جلوگیری از انتشار محتوای توهین آمیز و غیراخلاقی است. با این حال، اگر کاربر به اندازه کافی مصمم باشد، راههایی وجود دارد که میتوان ChatGPT را برای گفتن چیزهایی که مضر و غیراخلاقی هستند، واداشت.
به عنوان مثال، نویسندگان در این مطالعه توانستند با قرار دادن ChatGPT در “حالت توسعهدهنده”، پادمانها را دور بزنند. در آنجا ChatGPT چیزهای منفی درباره یک گروه نژادی خاص گفت.
خدمات تقلبی
ChatGPT می تواند برای کمک به ایجاد برنامه های کاربردی، خدمات، وب سایت ها و موارد دیگر استفاده شود. این می تواند ابزار بسیار مثبتی باشد که برای نتایج مثبت استفاده شود، مانند ایجاد کسب و کار شخصی یا تحقق ایده رویایی شما. با این حال، همچنین می تواند به این معنی باشد که ایجاد برنامه ها و سرویس های تقلبی آسان تر از همیشه است.
ChatGPT میتواند توسط کاربران مخرب برای توسعه برنامهها و پلتفرمهایی که دیگران را تقلید میکنند و دسترسی رایگان را به عنوان ابزاری برای جذب کاربران ناآگاه فراهم میکنند مورد سوء استفاده قرار گیرد. این کاربران همچنین می توانند از ChatGPT برای ایجاد برنامه های کاربردی برای جمع آوری اطلاعات حساس یا نصب بدافزار بر روی دستگاه های کاربران استفاده کنند.
افشای اطلاعات خصوصی
ChatGPT دارای حفاظ هایی برای جلوگیری از به اشتراک گذاری اطلاعات و داده های شخصی افراد است. با این حال، طبق این مطالعه، خطر اشتراکگذاری ناخواسته شماره تلفن، ایمیل یا سایر اطلاعات شخصی توسط ChatGPT همچنان یک نگرانی است.
قطعی ChatGPT در ۲۰ مارس، که به برخی از کاربران اجازه میدهد عناوین تاریخچه چت کاربر دیگر را ببینند، نمونهای واقعی از نگرانیهایی است که در بالا ذکر شد.
بر اساس این مطالعه، مهاجمان همچنین میتوانند سعی کنند بخشی از دادههای آموزشی را با استفاده از حملات استنتاج عضویت استخراج کنند.
خطر دیگر افشای داده های خصوصی این است که ChatGPT می تواند اطلاعات مربوط به زندگی خصوصی افراد عمومی، از جمله محتوای گمانه زنی یا مضر را به اشتراک بگذارد که می تواند به شهرت فرد آسیب برساند.