سوگیری سیاسی ChatGPT به سمت طیف چپ است؛ حمایت هوش مصنوعی از پرولتاریتا!

اخبار جدید می گوید که سوگیری سیاسی ChatGPT به سمت طیف چپ است. البته این موضوع قبلاً پیش بینی شده است و باید دید آینده این چت بات چگونه خواهد بود.

به گزارش اخبار تایمز، محققان دانشگاه شرق آنگلیا اخیرا دریافته اند که سوگیری سیاسی ChatGPT به سمت طیف چپ است و این چت ربات هوش مصنوعی به نفع دموکرات ها در آمریکا، حزب کارگر در انگلیس و لولا دی سیلوا، نماینده کارگران است. مهمانی در برزیل البته پیش از این محققین این موضوع را پیش بینی کرده بودند اما اکنون تایید شده است. لازم به ذکر است که مدل های هوش مصنوعی متا بر خلاف هوش مصنوعی OpenAI به سمت طیف مناسبی گرایش دارند!

سوگیری سیاسی ChatGPT به سمت طیف چپ است

برای بررسی سوگیری ChatGPT، تیم تحقیقاتی دانشگاه از ابزاری برای جعل هویت افراد از سراسر طیف سیاسی و پاسخ به بیش از ۶۰ سؤال ایدئولوژیک درخواست کردند. سپس پاسخ‌های ChatGPT را با پاسخ‌های پیش‌فرض موجود به آن سؤالات مقایسه کردند.

برای در نظر گرفتن احتمالی و تصادفی بودن هوش مصنوعی، هر سوال ۱۰۰ بار از هوش مصنوعی پرسیده شد و سپس برای اطمینان بیشتر، پاسخ ها از طریق یک “Bootstrap” با ۱۰۰۰ تکرار عبور داده شد، روشی که نتیجه را به دست می آورد.

سوگیری سیاسی ChatGPT به سمت طیف چپ است؛ حمایت هوش مصنوعی از پرولتاریتا!

ویکتور رودریگز، یکی از نویسندگان این تحقیق می گوید:

«ما این فرآیند را ایجاد کردیم زیرا یک دور آزمایشی برای مطالعه کافی نیست. به دلیل تصادفی بودن مدل، حتی در زمان تقلید از یک دموکرات هم گاهی پاسخ‌های ChatGPT به سمت طیف راست سیاسی کشیده می‌شود.»

در مجموعه دیگری از آزمایش‌ها که برای تایید یافته‌ها طراحی شده‌اند، محققان از ChatGPT خواستند تقابل‌های سیاسی خشونت‌آمیز را تقلید کند. سپس در یک «آزمون بی‌طرفی» از هوش مصنوعی سؤالات خنثی سیاسی و در «آزمون تعصب حرفه‌ای-سیاسی» از هوش مصنوعی به تقلید از کارشناسان مختلف خواسته شد.

تیم تحقیقاتی دریافت که پاسخ‌های پیش‌فرض بیشتر با طیف چپ سیاسی همسو بودند.

دکتر فابیو موتوچی، نویسنده اصلی این مطالعه گفت: «یافته‌های ما نگرانی‌های موجود در مورد سیستم‌های هوش مصنوعی را تأیید می‌کند که چالش‌های فعلی اینترنت و شبکه‌های اجتماعی را تقلید می‌کنند یا حتی آن‌ها را تقویت می‌کنند.

سوگیری سیاسی ChatGPT به سمت طیف چپ

تعصب هوش مصنوعی ممکن است دلایل مختلفی داشته باشد. اول اینکه پایگاه داده آموزشی از اینترنت گرفته شده و دارای سوگیری چپ سیاسی است. علاوه بر این، سوگیری هوش مصنوعی ممکن است توسط توسعه دهندگان ایجاد شود و در فرآیند “تمیز کردن” به خوبی تمیز نشود.

دوم الگوریتم هوش مصنوعی است که ممکن است سوگیری ها را در داده های آموزشی تشدید کند. یافته های این تحقیق بار دیگر نگرانی بسیاری از کاربران در مورد تاثیر هوش مصنوعی بر انتخابات را تایید می کند و خطر افزایش سوگیری یا انتشار اطلاعات معکوس را در مدل های بزرگ هوش مصنوعی مشاهده می کنیم.

همچنین بخوانید: هشدار پاپ فرانسیس درباره خطرات هوش مصنوعی

موتوکی می گوید:

با توجه به افزایش استفاده عمومی از سیستم های مبتنی بر هوش مصنوعی برای دریافت اطلاعات و تولید محتوای جدید، ما باید اطمینان حاصل کنیم که خروجی پلتفرم های محبوب مانند ChatGPT تا حد امکان بی طرفانه باشد.

سوگیری سیاسی ممکن است تأثیری در گذشته بر دیدگاه کاربران داشته باشد و پیامدهایی بر روند سیاسی و انتخاباتی داشته باشد.»

این یافته‌ها با سایر مقالات دانشگاه واشنگتن، دانشگاه کورنیش ملون و دانشگاه شیان جیائوتنگ مطابقت دارد که می‌گویند ChatGPT و GTP-4 چپ‌گراترین مدل‌های هوش مصنوعی در بین ۱۴ مدل مورد بررسی بودند و آزادی اجتماعی و اولویت را در نظر گرفتند.

با این حال، برخی از مدل های ساخته شده توسط متا، از جمله LLaMA و RoBERTa، جناح راست محسوب می شوند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
https://akhbartimes.ir/sitemap_index.xml