الرقابة الذكية: تقويّض للحرية أم حماية للمجتمع؟ - تكنو بلس

النشرة (لبنان) 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
الرقابة الذكية: تقويّض للحرية أم حماية للمجتمع؟ - تكنو بلس, اليوم الخميس 8 مايو 2025 10:02 صباحاً

بينما تتسابق الدول لتبني حلول الذكاء الاصطناعي في مجال الرقابة على المحتوى، يلوح في الأفق شبح تضييق الخناق على الحريات الرقمية. في عالمٍ تلعب فيه اليوم أنظمة الذكاء الاصطناعي دورها في تحديد ما يُنشر على الإنترنت، تكتسب مسألة حرية التعبير بُعداً مغايراً.

 

تطلق اليوم الدول أحدث تقنيات الذكاء الاصطناعي بهدف التصدي للقرصنة الرقمية والحجب الفوري لمواقع البث المخالفة لتشريعات حقوق النشر واستخدام المحتوى وغير ذلك. هنا، يطرح السؤال نفسه: ماذا عن توسيع دائرة الأخطاء وتقويض الديمقراطية مع تعزيز استخدام الذكاء الاصطناعي وأتمتة مهام المراقبة من قبل الحكومات والشركات؟ وكيف تُحمى الحريات دون السماح للفضاء الرقمي بالتحول إلى بؤرة للتطرف والكراهية والانتهاكات ودون استغلال الذكاء الاصطناعي لتنفيذ أجندات سياسية أو اقتصادية؟

 

تصميم الذكاء الاصطناعي.

 

مع الوقت ستنتشر هذه التقنيات عربياً في الإشراف على المحتوى، وقد أظهرت تجارب أخيرة أن إدارة المحتوى المدعومة بالذكاء الاصطناعي، وإن كانت مُصممة للحد من المحتوى الضار، قد تُبالغ أحياناً، وتُمارس رقابة خاطئة على الأصوات المشروعة. سواءً أكانت خوارزمية تُصنف منشوراً غير ضار على أنه غير لائق، أو أداة تُزيل محتوى لأسباب تبدو غير واضحة، فإن هذه القضايا تُثير مخاوف بشأن السلطة التي نُسلمها للآلات. 

 

فسيفساء من المنصات

 

على الرغم من واجب الحكومات وكذلك الشركات في تأمين مساحات رقمية آمنة للمستخدمين وحماية الابتكار، تبرز العديد من التحديات الثقافية والاجتماعية والتقنية. فالفضاء الرقمي ليس كياناً موحداً، بل هو فسيفساء من المنصات المتنوعة، تختلف طبيعتها وسياساتها. وما يُعتبر حرية في مكان ما قد يُفسر كإساءة أو انتهاك في مكان آخر. هذا التعقيد يجعل تطبيق حلول موحدة أمراً صعباً والاتكال فقط على الذكاء الاصطناعي، دون التدخل البشري، قد يؤدي إلى ارتكاب أخطاء "كارثية". كما يفرض تحديات قانونية وأخلاقية تبدأ من عدم وضوح الجهة التي ستتحمل مسؤولية هذه الأخطاء، ولا تنتهي عند الانتهاكات التعسفية وارتفاع منسوب الرقابة السياسية في بعض الدول.

 

بين عجز الفهم وتحيز البيانات: متاهة الذكاء الاصطناعي


يفحص اليوم الذكاء الاصطناعي ملايين المنشورات والتعليقات ومقاطع الفيديو يومياً على المنصات. وهو مصمم للكشف عن خطاب الكراهية والمعلومات المضللة، وحتى التلميحات الخفية. ولكن ما يواجهه المستخدمون هو عدم فهم الذكاء الاصطناعي لسياق المحتوى دوماً. فمهما بلغت الأنظمة من التطور ستبقى تواجه صعوبة في تفسير أو إدراك سياق جميع المحتوى، فبينما ينتقد أو يثني أحدهم على عملٍ ما قد يُصنف أنه منتهك للملكية الفكرية.

 

من جهته، اعتبر الدكتور علاء عبد الرزاق، الخبير في الذكاء الاصطناعي، في حديث مع "النهار"، أن "الذكاء الاصطناعي أداة قوية، ولكنه ليس حلاً كاملاً. فالإشراف البشري ضروري لفهم السياق المعقد، وتقييم النوايا"، وعن النماذج التي تفلتر خطاب الكراهية أشار إلى أن "بعض العبارات قد تكون غير مسيئة في سياق معين لكنها تعتبر تحريضية في سياق آخر".

 

وأضاف "الذكاء الاصطناعي قد يفتقر إلى القدرة على التمييز بين السخرية، والنقد البناء، وخطاب الكراهية، ما يستدعي تدخل العنصر البشري. فبعض المجالات، مثل المحتوى السياسي أو الديني أو الثقافي، قد تحتوي على تعقيدات وسياقات يصعب على الأنظمة الآلية تفسيرها بدقة.على سبيل المثال، بعض التعابير الساخرة أو النقاشات الجادة قد يتم تصنيفها كمحتوى ضار".

 

كذلك تواجه أنظمة الذكاء الاصطناعي تحدياً آخر يتمثل في التحيز الذي يرافق هذه النماذج، وتالياً تمارسه أدوات الإشراف المعتمدة. فعلى الرغم من أن الذكاء الاصطناعي يعتمد على البيانات التي يتم تدريبه عليها، إلا أن فعاليته تتوقف على جودة هذه البيانات. وإذا كانت هذه البيانات تحتوي على تحيزات، فإن الذكاء الاصطناعي سيقوم بتكرارها وتنفيذها بشكل تلقائي. فقد يتم مثلاً تصنيف بعض العبارات التي يستخدمها أفراد الأقليات بشكل متكرر على أنها مسيئة، منتهكاً حرية التعبير لبعض الأفراد أو الجماعات بشكل غير عادل.

 

سيناريوات واقعية 

 

تُوضّح سيناريوات واقعية الأخطاء الكارثية التي قد يرتكبها الذكاء الاصطناعي والآثار التي تنعكس سلباً على مهمات تتطلب الاشراف البشري. في 2020، وجدت مجموعة من النشطاء أن منشوراتهم قد أُزيلت أو أُبلغ عنها بشكل متكرر بواسطة الذكاء الاصطناعي، الذي أساء تفسير لغتهم على أنها تُحرّض على العنف. فتُسلّط مثل هذه الحالات الضوء على الخطّ الدقيق الذي يعجز الذكاء الاصطناعي على أن يسلكه بين تطبيق المعايير والنقاش المشروع. وفي 2024، أنهت "ماكدونالدز" تجربة الاعتماد على الذكاء الاصطناعي جراء أخطاء في تلقي الطلبات بعد ثلاث سنوات من العمل مع شركة "آي بي إم"، وذلك بسبب سلسلة من مقاطع الفيديو على مواقع التواصل تُظهر عملاء مرتبكين ومحبطين يحاولون جعل الذكاء الاصطناعي يفهم طلباتهم. 

 

ومن الأمثلة المُثيرة للسخرية روبوت الذكاء الاصطناعي المُؤيد لإسرائيل الذي خرج عن النص، ووصف جنود الجيش الإسرائيلي بـ"المستعمرين"، وطالب بإقامة دولة فلسطينية. لذا، فإنّ كانت مسؤولية أفعال الذكاء الاصطناعي ستقع على عاتق الشركة أو المؤسسة التي تستخدمه في المستقبل، وهو أحد الأسئلة البارزة في هذا المجال، فإن "أوبن أيه آي" نفسها، الشركة التي أنتجت الشهير "شات جي بي تي"، لم تفهم سبب تقديم روبوت الدردشة الخاص بها لبعض الإجابات.

خلاصةً، لتحقيق التوازن المنشود من أي أداة، لا بد من تعاون شفاف بين الحكومات، شركات التكنولوجيا، والذكاء الاصطناعي بإشراف بشريّ. إذ يُمكن للذكاء الاصطناعي أن يكون أداةً فعّالةً للحفاظ على النظام، إلا أنه قد يُصبح أداةً فظّةً تُقيّد حرية التعبير التي يُفترض أن يحميها. وبالفعل، في 2020، أعلن "فايسبوك" أن برنامج الذكاء الاصطناعي لديه يكتشف 94.7% من خطاب الكراهية الذي تتم إزالته من المنصة. وكشف كبير مسؤولي التكنولوجيا في ذلك الوقت، مايك شروبر، عن هذا الرقم مضيفاً أنه ارتفع بنحو 14% من 80.5% قبل عام، و70.7% من 24% في 2017.

 

ولكن التوازن العادل يتطلب فهماً أعمق للفروق الدقيقة ويظل التحدي قائماً أنه ودون العقل البشري ستقع هذه الأنظمة بالكثير من الأخطاء وتمارس التحيزات والهلوسات بحق المستخدمين، فينقلب السحر على الساحر. 

إخترنا لك

أخبار ذات صلة

0 تعليق