نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
أدوات الذكاء الاصطناعي تظهر انحيازاً وثقة مفرطة مشابهة للسلوك البشري - تكنو بلس, اليوم الاثنين 5 مايو 2025 07:09 صباحاً
تشير دراسة حديثة إلى أن الذكاء الاصطناعي، بما في ذلك ChatGPT، قد لا يكون بمنأى عن الوقوع في أخطاء بشرية رغم طبيعته التقنية. وتكشف النتائج عن أن هذه الأنظمة قد تُظهر تحيزات معرفية مشابهة للتحيزات التي تصيب البشر، مما يشير إلى أن القرارات التي تعتمد على هذه الأنظمة قد تكون أحيانًا متأثرة بأنماط تفكير غير عقلانية، خاصة في المواقف التي تستند إلى الأحكام الشخصية.
الذكاء الاصطناعي بين القرارات العقلانية والتأثر بالتحيز
تابع أيضاً أسطورة السيارات الخارقة تعود بإصدار محدود جديد يجذب عشاق السرعة.
أظهرت الدراسة، التي نُشرت بمجلة Manufacturing & Service Operations Management، أن ChatGPT، خاصة النماذج GPT-3.5 وGPT-4، قد ارتكب بعض الأخطاء المشابهة للبشر في قراراته. قام الباحثون بتقييم 18 انحيازًا معرفيًا مختلفًا، مثل تأثير التملك والنفور من المخاطر والثقة الزائدة، ووجدوا أن ChatGPT أظهر في نصف الحالات تقريبًا أنماطًا مشابهة لتلك الأخطاء البشرية، مما يجعل استخدامه في القرارات الحرجة أو المعقدة يتطلب مزيدًا من الحذر والتقييم.
ووفقًا للنتائج، كان GPT-4 أفضل في المسائل التي تتطلب منطقًا واحتمالات دقيقة مقارنة بـ GPT-3.5، لكنه ارتكب أيضًا أخطاء أثناء معالجة المسائل التي يتداخل فيها التقييم الشخصي مع القرارات الاستراتيجية. كما أظهر ميلًا قويًا لما يُعرف بـ “تحيّز التأكيد”، حيث يعزز معلومات أو معتقدات قائمة بدلاً من مناقشتها أو اختبارها.
أسباب التحيز في أنظمة الذكاء الاصطناعي
مقال مقترح أدوات الذكاء الاصطناعي تسهّل عليك العثور على وظيفة جديدة بسرعة
وفقًا للبحث، قد يكون السبب وراء هذه التحيزات هو بيانات التدريب المستخدمة لتطوير نماذج الذكاء الاصطناعي، حيث تحمل هذه البيانات التحيزات الإدراكية التي يتم العثور عليها أصلاً في السلوك البشري. على سبيل المثال، في حين تمكن ChatGPT من تجنّب بعض الأخطاء الشائعة مثل تجاهل المعدلات الأساسية وتحيز الكلفة الغارقة، إلا أنه وقع أحيانًا في أخطاء أكثر تعقيدًا مثل “وهم التسلسل”، وهو الافتراض الخاطئ بوجود نمط في بيانات عشوائية.
كما أشار الباحثون إلى أن القرارات التي تعتمد على الذكاء الاصطناعي تكون أفضل عندما تُطبق على مسائل تعتمد على حقائق واضحة أو بيانات دقيقة، بدلاً من القرارات الغامضة التي تحتاج إلى تدخل الإبداع أو التقييم البشري.
أهمية الإشراف البشري في استخدام الذكاء الاصطناعي
تابع أيضاً شاومي تطلق نموذجًا لغويًا جديدًا وتعزز مكانتها في مجال الذكاء الاصطناعي
توصي الدراسة بأهمية الإشراف البشري لتجنب تأثير التحيزات عند استخدام الذكاء الاصطناعي، خصوصًا في المجالات التي تتطلب مسؤولية أخلاقية أو تقييمات قائمة على الآراء. يقول البروفيسور يانغ تشين إن القرارات المعتمدة على التفضيلات الشخصية تحتاج إلى قيادة دقيقة من الإنسان، حيث يمكن أن يؤدي الاعتماد الكامل على ChatGPT إلى مخاطر تتعلق بأتمتة أخطاء البشر عوضًا عن تصحيحها.
على الجانب الآخر، أضافت الباحثة مينا أنديابان أنه يجب معاملة الذكاء الاصطناعي كأداة مساعدة تحت الرقابة البشرية، وخاصة في القرارات الحساسة التي تتطلب دقة وشفافية عالية. فهذا النوع من التشابك بين البشري والآلي يعزز فرص التكامل، بدلاً من تضخيم الأخطاء الفردية أو تحيز الأنظمة الرقمية.
قدمنا لكم زوارنا أهم وأحدث الأخبار فى هذا المقال : أدوات الذكاء الاصطناعي تظهر انحيازاً وثقة مفرطة مشابهة للسلوك البشري - تكنو بلس, اليوم الاثنين 5 مايو 2025 07:09 صباحاً
0 تعليق