۶ روش مضر ChatGPT که می تواند توسط کاربران نا اهل استفاده شود

برای همه چیزهای خوبی که می‌توانید با ChatGPT جدید OpenAI انجام دهید، باید از روش‌هایی که می‌تواند توسط افرادی با اهداف مخرب استفاده شود نیز آگاه باشید.

این هفته، نگرانی ها در مورد خطرات هوش مصنوعی مولد به بالاترین حد خود رسید. سام آلتمن، مدیر عامل OpenAI حتی در جلسه استماع کمیته قضایی سنا برای رسیدگی به خطرات و آینده هوش مصنوعی شهادت داد. مطالعه‌ای که هفته گذشته منتشر شد، شش خطر امنیتی مختلف مربوط به استفاده از ChatGPT را شناسایی کرد.

به گزارش اخبار تایمز؛ این خطرات شامل پتانسیل استفاده کاربران بد از ChatGPT برای تولید سرویس‌های جعلی، جمع‌آوری اطلاعات مضر، افشای داده‌های خصوصی، تولید متن مخرب، تولید کدهای مخرب و تولید محتوای توهین‌آمیز است.

بر اساس این مطالعه، در اینجا خلاصه ای از آنچه که هر خطر مستلزم آن است و آنچه باید به آن توجه کنید، آورده شده است.

6 روش مضر ChatGPT که می تواند توسط کاربران نا اهل استفاده شود

جمع آوری اطلاعات

فردی که با نیت مخرب عمل می کند می تواند اطلاعاتی را از ChatGPT جمع آوری کند که بعداً می تواند برای آسیب استفاده کند. از آنجایی که ChatGPT بر روی حجم زیادی از داده ها آموزش دیده است، اطلاعات زیادی را می داند که در صورت قرار گرفتن در دستان نادرست می تواند به سلاح تبدیل شود.
در این مطالعه، ChatGPT خواسته می شود تا سیستم فناوری اطلاعات یک بانک خاص را فاش کند. ChatGPT با استفاده از اطلاعات در دسترس عموم، سیستم های فناوری اطلاعات مختلفی را که بانک مورد نظر استفاده می کند جمع آوری می کند. این فقط نمونه‌ای از یک بازیگر مخرب است که از ChatGPT برای یافتن اطلاعاتی استفاده می‌کند که می‌تواند به آنها آسیب برساند.
این مطالعه می‌گوید: «این می‌تواند برای کمک به اولین گام حمله سایبری، زمانی که مهاجم در حال جمع‌آوری اطلاعات درباره هدف برای یافتن مکان و نحوه حمله مؤثرتر است، استفاده شود».

متن مخرب

یکی از محبوب ترین ویژگی های ChatGPT توانایی آن در تولید متنی است که می توان از آن برای نوشتن مقاله، ایمیل، آهنگ و موارد دیگر استفاده کرد. با این حال، از این توانایی نوشتن می توان برای ایجاد متن مضر نیز استفاده کرد.
نمونه‌هایی از تولید متن مضر می‌تواند شامل ایجاد کمپین‌های فیشینگ، اطلاعات نادرست مانند مقالات اخبار جعلی، هرزنامه‌ها و حتی جعل هویت باشد که در این مطالعه مشخص شده است.
6 روش مضر ChatGPT که می تواند توسط کاربران نا اهل استفاده شود
برای آزمایش این خطر، نویسندگان در این مطالعه از ChatGPT برای ایجاد یک کمپین فیشینگ استفاده کردند، که به کارکنان اجازه می‌دهد از افزایش دستمزد جعلی با دستورالعمل‌هایی برای باز کردن یک برگه اکسل پیوست که حاوی بدافزار است مطلع شوند. همانطور که انتظار می رفت، ChatGPT یک ایمیل قابل قبول و باورپذیر تولید کرد.

تولید کد مخرب

همانند توانایی‌های شگفت‌انگیز نوشتن ChatGPT، توانایی‌های برنامه‌نویسی چشمگیر ChatGPT برای بسیاری به ابزاری مفید تبدیل شده است. با این حال، توانایی چت بات برای تولید کد نیز می تواند برای آسیب استفاده شود. کد ChatGPT را می توان برای تولید کد سریع استفاده کرد و به مهاجمان این امکان را می دهد که حتی با دانش محدود برنامه نویسی، تهدیدات را سریعتر اجرا کنند.

علاوه بر این، ChatGPT می‌تواند برای تولید کد مبهم مورد استفاده قرار گیرد، که تشخیص فعالیت‌های مخرب و اجتناب از نرم‌افزار آنتی‌ویروس را برای تحلیلگران امنیتی دشوارتر می‌کند.
در مثال، ChatGPT از تولید کد مخرب خودداری می کند، اما با تولید کدی موافقت می کند که بتواند آسیب پذیری Log4j را در یک سیستم آزمایش کند.

تولید محتوای غیر اخلاقی

ChatGPT دارای حفاظ هایی برای جلوگیری از انتشار محتوای توهین آمیز و غیراخلاقی است. با این حال، اگر کاربر به اندازه کافی مصمم باشد، راه‌هایی وجود دارد که می‌توان ChatGPT را برای گفتن چیزهایی که مضر و غیراخلاقی هستند، واداشت.

به عنوان مثال، نویسندگان در این مطالعه توانستند با قرار دادن ChatGPT در “حالت توسعه‌دهنده”، پادمان‌ها را دور بزنند. در آنجا ChatGPT چیزهای منفی درباره یک گروه نژادی خاص گفت.

6 روش مضر ChatGPT که می تواند توسط کاربران نا اهل استفاده شود

خدمات تقلبی

ChatGPT می تواند برای کمک به ایجاد برنامه های کاربردی، خدمات، وب سایت ها و موارد دیگر استفاده شود. این می تواند ابزار بسیار مثبتی باشد که برای نتایج مثبت استفاده شود، مانند ایجاد کسب و کار شخصی یا تحقق ایده رویایی شما. با این حال، همچنین می تواند به این معنی باشد که ایجاد برنامه ها و سرویس های تقلبی آسان تر از همیشه است.

ChatGPT می‌تواند توسط کاربران مخرب برای توسعه برنامه‌ها و پلتفرم‌هایی که دیگران را تقلید می‌کنند و دسترسی رایگان را به عنوان ابزاری برای جذب کاربران ناآگاه فراهم می‌کنند مورد سوء استفاده قرار گیرد. این کاربران  همچنین می توانند از ChatGPT برای ایجاد برنامه های کاربردی برای جمع آوری اطلاعات حساس یا نصب بدافزار بر روی دستگاه های کاربران استفاده کنند.

افشای اطلاعات خصوصی

ChatGPT دارای حفاظ هایی برای جلوگیری از به اشتراک گذاری اطلاعات و داده های شخصی افراد است. با این حال، طبق این مطالعه، خطر اشتراک‌گذاری ناخواسته شماره تلفن، ایمیل یا سایر اطلاعات شخصی توسط ChatGPT همچنان یک نگرانی است.
قطعی ChatGPT در ۲۰ مارس، که به برخی از کاربران اجازه می‌دهد عناوین تاریخچه چت کاربر دیگر را ببینند، نمونه‌ای واقعی از نگرانی‌هایی است که در بالا ذکر شد.
بر اساس این مطالعه، مهاجمان همچنین می‌توانند سعی کنند بخشی از داده‌های آموزشی را با استفاده از حملات استنتاج عضویت استخراج کنند.
خطر دیگر افشای داده های خصوصی این است که ChatGPT می تواند اطلاعات مربوط به زندگی خصوصی افراد عمومی، از جمله محتوای گمانه زنی یا مضر را به اشتراک بگذارد که می تواند به شهرت فرد آسیب برساند.
منبع: zdnet.com

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
https://akhbartimes.ir/sitemap_index.xml