سوگیری سیاسی ChatGPT به سمت طیف چپ است؛ حمایت هوش مصنوعی از پرولتاریتا!
اخبار جدید می گوید که سوگیری سیاسی ChatGPT به سمت طیف چپ است. البته این موضوع قبلاً پیش بینی شده است و باید دید آینده این چت بات چگونه خواهد بود.
به گزارش اخبار تایمز، محققان دانشگاه شرق آنگلیا اخیرا دریافته اند که سوگیری سیاسی ChatGPT به سمت طیف چپ است و این چت ربات هوش مصنوعی به نفع دموکرات ها در آمریکا، حزب کارگر در انگلیس و لولا دی سیلوا، نماینده کارگران است. مهمانی در برزیل البته پیش از این محققین این موضوع را پیش بینی کرده بودند اما اکنون تایید شده است. لازم به ذکر است که مدل های هوش مصنوعی متا بر خلاف هوش مصنوعی OpenAI به سمت طیف مناسبی گرایش دارند!
سوگیری سیاسی ChatGPT به سمت طیف چپ است
برای بررسی سوگیری ChatGPT، تیم تحقیقاتی دانشگاه از ابزاری برای جعل هویت افراد از سراسر طیف سیاسی و پاسخ به بیش از ۶۰ سؤال ایدئولوژیک درخواست کردند. سپس پاسخهای ChatGPT را با پاسخهای پیشفرض موجود به آن سؤالات مقایسه کردند.
برای در نظر گرفتن احتمالی و تصادفی بودن هوش مصنوعی، هر سوال ۱۰۰ بار از هوش مصنوعی پرسیده شد و سپس برای اطمینان بیشتر، پاسخ ها از طریق یک “Bootstrap” با ۱۰۰۰ تکرار عبور داده شد، روشی که نتیجه را به دست می آورد.
ویکتور رودریگز، یکی از نویسندگان این تحقیق می گوید:
«ما این فرآیند را ایجاد کردیم زیرا یک دور آزمایشی برای مطالعه کافی نیست. به دلیل تصادفی بودن مدل، حتی در زمان تقلید از یک دموکرات هم گاهی پاسخهای ChatGPT به سمت طیف راست سیاسی کشیده میشود.»
در مجموعه دیگری از آزمایشها که برای تایید یافتهها طراحی شدهاند، محققان از ChatGPT خواستند تقابلهای سیاسی خشونتآمیز را تقلید کند. سپس در یک «آزمون بیطرفی» از هوش مصنوعی سؤالات خنثی سیاسی و در «آزمون تعصب حرفهای-سیاسی» از هوش مصنوعی به تقلید از کارشناسان مختلف خواسته شد.
تیم تحقیقاتی دریافت که پاسخهای پیشفرض بیشتر با طیف چپ سیاسی همسو بودند.
دکتر فابیو موتوچی، نویسنده اصلی این مطالعه گفت: «یافتههای ما نگرانیهای موجود در مورد سیستمهای هوش مصنوعی را تأیید میکند که چالشهای فعلی اینترنت و شبکههای اجتماعی را تقلید میکنند یا حتی آنها را تقویت میکنند.
تعصب هوش مصنوعی ممکن است دلایل مختلفی داشته باشد. اول اینکه پایگاه داده آموزشی از اینترنت گرفته شده و دارای سوگیری چپ سیاسی است. علاوه بر این، سوگیری هوش مصنوعی ممکن است توسط توسعه دهندگان ایجاد شود و در فرآیند “تمیز کردن” به خوبی تمیز نشود.
دوم الگوریتم هوش مصنوعی است که ممکن است سوگیری ها را در داده های آموزشی تشدید کند. یافته های این تحقیق بار دیگر نگرانی بسیاری از کاربران در مورد تاثیر هوش مصنوعی بر انتخابات را تایید می کند و خطر افزایش سوگیری یا انتشار اطلاعات معکوس را در مدل های بزرگ هوش مصنوعی مشاهده می کنیم.
همچنین بخوانید: هشدار پاپ فرانسیس درباره خطرات هوش مصنوعی
موتوکی می گوید:
با توجه به افزایش استفاده عمومی از سیستم های مبتنی بر هوش مصنوعی برای دریافت اطلاعات و تولید محتوای جدید، ما باید اطمینان حاصل کنیم که خروجی پلتفرم های محبوب مانند ChatGPT تا حد امکان بی طرفانه باشد.
سوگیری سیاسی ممکن است تأثیری در گذشته بر دیدگاه کاربران داشته باشد و پیامدهایی بر روند سیاسی و انتخاباتی داشته باشد.»
این یافتهها با سایر مقالات دانشگاه واشنگتن، دانشگاه کورنیش ملون و دانشگاه شیان جیائوتنگ مطابقت دارد که میگویند ChatGPT و GTP-4 چپگراترین مدلهای هوش مصنوعی در بین ۱۴ مدل مورد بررسی بودند و آزادی اجتماعی و اولویت را در نظر گرفتند.
با این حال، برخی از مدل های ساخته شده توسط متا، از جمله LLaMA و RoBERTa، جناح راست محسوب می شوند.