حذّرت مجموعة من الباحثين في ألمانيا مؤخرًا من خطر التحيز عند استخدام روبوتات الدردشة الذكية لاختصار محتوى الأبحاث. بعد تحليل 4900 ملخص علمي كتبه بشر، استخدم الفريق نماذج ذكاء اصطناعي متعددة لمقارنة كيفية معالجة هذه الأنظمة للمعلومات. أظهرت النتائج أن معظم روبوتات الدردشة كانت تُبالغ في التعميم، حتى عند مطالبتها بتلخيص دقيق.
الذكاء الاصطناعي عرضة للتحيز عند تلخيص الأبحاث العلمية.
في الاختبارات، ارتكبت نماذج الذكاء الاصطناعي أخطاءً تفوق أخطاء الخبراء البشريين بخمس مرات عند عدم توجيهها. وحتى مع وجود شرط واضح للدقة، كان معدل الخطأ ضعف معدل الخطأ في الملخص القياسي. قال أحد أعضاء الفريق: "قد تبدو التعميمات غير ضارة أحيانًا، لكنها في الواقع تُغير طبيعة البحث الأصلي. هذا تحيز منهجي".
تجدر الإشارة إلى أن الإصدارات الأحدث من روبوت المحادثة لم تُحل المشكلة، بل فاقمت منها. فبفضل لغتها السلسة والجذابة، تبدو الملخصات المُولّدة بالذكاء الاصطناعي موثوقة بسهولة، بينما يكون محتواها الفعلي مُشوّهًا. في إحدى الحالات، غيّرت DeepSeek عبارة "آمن ويمكن إجراؤه بنجاح" إلى "علاج آمن وفعال" - وهو إعادة تفسير لاستنتاجات الدراسة الأصلية.
في مثال آخر، أوصى نموذج اللاما بأدوية السكري للشباب دون تحديد الجرعة أو التكرار أو الآثار الجانبية. إذا كان القارئ طبيبًا أو أخصائي رعاية صحية ولم يتحقق من المعلومات بالبحث الأصلي، فإن مثل هذه الملخصات قد تُشكل خطرًا مباشرًا على المرضى.
يقول الخبراء إن هذه الظاهرة متجذرة في طريقة تدريب نماذج الذكاء الاصطناعي. فالعديد من روبوتات الدردشة اليوم تُدرّب على بيانات ثانوية - مثل الأخبار العلمية الشائعة - مُكثّفة مسبقًا. ومع استمرار الذكاء الاصطناعي في تلخيص المحتوى المُكثّف، يزداد خطر التشويه.
ويقول خبراء الذكاء الاصطناعي في مجال الصحة العقلية إن الحواجز التقنية يجب أن تُبنى في وقت مبكر من تطوير واستخدام الذكاء الاصطناعي.
يجب على المستخدمين أن يكونوا حذرين لأن برامج المحادثة الآلية يمكنها تشويه المحتوى بسهولة.
مع تزايد اعتماد المستخدمين على روبوتات الدردشة الذكية للتعلم عن العلوم، يمكن للأخطاء التفسيرية البسيطة أن تتراكم وتنتشر بسرعة، مما يؤدي إلى مفاهيم خاطئة واسعة النطاق. وفي وقت تتراجع فيه الثقة بالعلم، يُصبح هذا الخطر أكثر إثارة للقلق ويستحق اهتمامًا جديًا.
يُعد دمج الذكاء الاصطناعي في البحث العلمي ونشر المعرفة توجهًا لا رجعة فيه. ومع ذلك، يؤكد الخبراء أن التكنولوجيا لا يمكن أن تحل محل دور البشر في فهم المحتوى العلمي والتحقق منه. عند استخدام روبوتات الدردشة في المجالات عالية الخطورة، مثل الطب، ينبغي إعطاء الأولوية للدقة، بدلًا من التركيز فقط على سلاسة اللغة أو سرعة الاستجابة.
المصدر: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html
تعليق (0)