یکشنبه 03 اسفند 1404
Sunday, 22 February 2026

محققان: چت‌ جی‌پی‌تی به ایرانی‌ها پاسخ بی‌کیفیت‌تری می‌دهد

الف یکشنبه 03 اسفند 1404 - 01:36
یک پژوهش جدید نشان می‌دهد کاربران ایرانی ممکن است در تعامل با چت‌بات‌های هوش مصنوعی پاسخی متفاوت از آنچه تصور می‌شود دریافت کنند.

به گزارش فارس به نقل از «مرکز ارتباطات سازنده» وابسته به آزمایشگاه رسانه دانشگاه ام‌آی‌تی، مطالعه‌ای جدید نشان می‌دهد چت‌بات‌های هوش مصنوعی ممکن است برای برخی کاربران آسیب‌پذیر، به‌ویژه کاربران ایرانی و چینی، پاسخ‌های کم‌دقت‌تر و گاه نادرستی ارائه دهند.

این پژوهش که در ۳۰ بهمن ۱۴۰۴ منتشر شد، تأکید می‌کند مدل‌های زبانی پیشرفته نه‌تنها همیشه دسترسی برابر به اطلاعات ایجاد نمی‌کنند، بلکه عملکردشان با سطح زبان، تحصیلات و کشور مبدأ کاربران تفاوت دارد.

در این تحقیق، سه مدل مطرح هوش مصنوعی شامل جی‌پی‌تی۴، کلود ۳ اوپوس و لاما ۳ بررسی شدند. پژوهشگران پیش از هر پرسش، شرح کوتاهی از ویژگی‌های کاربر مانند سطح تحصیلات، میزان تسلط به زبان انگلیسی و کشور محل تولد او اضافه کردند. نتایج نشان داد وقتی کاربر ایرانی یا چینی با تحصیلات کمتر و انگلیسی غیربومی سؤال می‌کرد، دقت پاسخ‌ها به شکل محسوسی کاهش می‌یافت. بیشترین افت کیفیت برای کاربرانی بود که هم تحصیلات پایین‌تر داشتند و هم انگلیسی زبان مادری‌شان نبود.
پژوهش همچنین نشان داد کشور مبدأ به‌تنهایی نیز بر کیفیت پاسخ اثر می‌گذارد. برای مثال، یکی از مدل‌ها به‌طور مشخص برای کاربران ایرانی عملکرد ضعیف‌تری نسبت به کاربران آمریکایی با همان سطح تحصیلات داشت. این مسئله نگرانی‌هایی درباره سوگیری پنهان در مدل‌ها ایجاد کرده، زیرا پاسخ‌ها ممکن است بر اساس پیش‌فرض‌های جمعیت‌شناختی تغییر کند.

یکی از یافته‌های قابل توجه، میزان امتناع مدل‌ها از پاسخ‌گویی بود. به‌طور نمونه، یکی از مدل‌ها برای کاربران ایرانی و چینی با تحصیلات کمتر و انگلیسی غیربومی در حدود ۱۱ درصد موارد از پاسخ دادن خودداری کرد، در حالی که این رقم برای کاربران آمریکایی بدون مشخصات خاص تنها حدود ۳.۶ درصد بود. بررسی کیفی پاسخ‌ها نشان داد لحن برخی امتناع‌ها برای کاربران کم‌تحصیل، تحقیرآمیز یا از بالا به پایین بوده و گاه تقلید نادرست از شیوه صحبت کردن آن‌ها مشاهده شد.

در برخی موارد، مدل‌ها از پاسخ دادن به موضوعاتی مانند انرژی هسته‌ای، آناتومی یا رویدادهای تاریخی برای کاربران ایرانی و روسی خودداری کردند، در حالی که همان پرسش‌ها را برای دیگر کاربران بدون مشکل پاسخ دادند. این موضوع نشان می‌دهد که سازوکارهای کنترلی مدل‌ها ممکن است به‌جای جلوگیری از خطا، منجر به تبعیض اطلاعاتی شده باشند.
پژوهشگران هشدار می‌دهند این الگوها بازتابی از سوگیری‌های انسانی است؛ همان‌گونه که مطالعات نشان داده گویشوران بومی انگلیسی گاهی افراد غیربومی را کم‌سوادتر یا کم‌توان‌تر تصور می‌کنند. با توجه به گسترش قابلیت‌های شخصی‌سازی در چت‌بات‌ها که اطلاعات کاربران را در طول زمان ذخیره می‌کنند، خطر تشدید این نابرابری‌ها بیشتر می‌شود. اگر این سوگیری‌ها اصلاح نشود، ابزارهایی که قرار بود دسترسی عادلانه به دانش را تقویت کنند، ممکن است نابرابری‌های موجود را عمیق‌تر کنند.

منبع خبر "الف" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.