سياسات أكاديمية لضبط استخدام الذكاء الاصطناعي حماية للإبداع والنزاهة العلمية
في ظلّ الاستخدام الكثيف من الطلاب في الجامعات العربية لبرامج الذكاء الاصطناعي، ومع غياب سياسات واضحة في معظم المؤسسات، تتزايد احتمالات سوء الاستخدام والغش الأكاديمي بشكل خطير.
وفي حين يميل التوجّه العالمي إلى تشجيع الاستخدام المنظّم، لا المنع التام، فإن أمام الجامعات العربية، في ظل هذا التوجّه، فرصة لتبنّي سياسات مرنة وواقعية، تستفيد من تجارب الخارج، وتحترم السياق المحلي.
وتوصّل باحثون – ضمن مسودة سياسات أكاديمية كُشف عنها عام 2024 في جامعتي Stanford وMIT – إلى رفضهم للاستخدام الخفي أو المطلق للذكاء الاصطناعي، مؤكدين أن استخدامه في الكتابة أو التفكير دون تصريح يُعد تضليلاً صريحًا.
وشدّدت المسودة على أنه حتى لو ساعدك الذكاء الاصطناعي، يجب الإشارة إليه، تمامًا كما يُذكر المرجع أو المصدر، ويرى الباحثون أن استخدامه دون تصريح «يقتل الإبداع البشري» ويضرّ بثقة المجتمع.
واستلهم الباحثون هذه الفكرة من جامعات مثل كامبريدج (Cambridge) وهارفارد (Harvard)، اللتين تبنّتا سياسات واضحة بشأن استخدام الطلاب للذكاء الاصطناعي في الكتابة والأبحاث، وأكدتا ضرورة التصريح بذلك، وهو ما يتقاطع مع طيف واسع من آراء خبراء الذكاء الاصطناعي، والفلاسفة، والأكاديميين، والمبرمجين حول «الاستخدام المسؤول للذكاء الاصطناعي»، خاصة فيما يتعلّق بالشفافية، والتضليل، وأخلاقيات الاستخدام.
وعربيًّا، تناولت العديد من الدراسات والأبحاث استخدام الذكاء الاصطناعي في التعليم والبحث الأكاديمي، ومدى تأثيره على النزاهة الأكاديمية، وغياب السياسات الواضحة في المؤسسات، بما في ذلك بعض المؤسسات الحكومية في مجالي الاقتصاد والتعليم.
وشارك 822 طالبًا في 7 جامعات بدولة الإمارات في دراسة بعنوان (College Students’ Use and Perceptions of AI Tools in the UAE)، وأظهرت أن نحو 79.6٪ من الطلاب يستخدمون الأدوات الذكية أسبوعيًّا أو يوميًّا، وأن عوامل نفسية تؤثر في تبنّيهم لهذه الأدوات، مثل ضغط الزملاء والمواقف الأخلاقية. كما أشار الطلاب إلى غياب إرشادات واضحة من المؤسسات حول استخدام هذه الأدوات، بحسب mdpi.com.
ومن جانب آخر، أظهرت دراسة نُشرت في Frontiers in Education بجامعة البحرين، وشملت 218 مشاركًا من طلاب وأعضاء هيئة تدريس، أن «الأثر التربوي للذكاء الاصطناعي» يرتبط ارتباطًا قويًّا بالنجاح الأكاديمي، بينما كان لأثر «السياسات والأخلاق» حضور أقل وضوحًا.
في حين اعترف نحو 50٪ من طلاب سعوديين ومصريين وأردنيين بعدم درايتهم بسياسات جامعاتهم المتعلقة بالذكاء الاصطناعي، وفقًا لدراسة مقارنة نشرتها BioMed Central، تناولت العوامل المؤثرة في الغش الأكاديمي في هذه الدول، وأشارت إلى ضعف السياسات الموحّدة في المؤسسات بشأن نزاهة الذكاء الاصطناعي.
وفي جامعة السلطان قابوس، نشر قسم العلوم التربوية دراسة تناولت آراء الطلاب وأعضاء هيئة التدريس حول أدوات الذكاء الاصطناعي، مع التركيز على الاعتبارات الأخلاقية والتحديات المؤسسية في سياق عُمان ومصر، وفقًا لـ(mdpi).
كما استعرض (ChatGPT) دراسة مقارنة دولية حول تبنّي السياسات الأخلاقية، ضمن تحليل عالمي شمل 500 جامعة، حيث وُجد أن أقل من ثلث هذه الجامعات لديها سياسات واضحة للذكاء الاصطناعي، بينما تبنّت 67٪ منها سياسات تشجّع الاستخدام تحت إشراف ومتابعة، مقابل جامعات منعت استخدامه كليًّا.
أما موقع (arXiv)، فقد استعرض دراسة نُشرت في أبريل 2025، طوّرت نموذجًا للإرشاد بالإدارة الفعالة للذكاء الاصطناعي التوليدي، مستندةً إلى تحليل 124 وثيقة من 110 جامعات، لتحديد أولويات تصميم السياسات وفق السياق الثقافي والدولي.
رأي مؤسس
ومن أبرز سمات السياق الثقافي لمطوّري هذه البرامج، ما عبّر عنه سام ألتمان، مؤسس (OpenAI) وسلسلة (GPT) المطوّرة منذ 2020، وصولاً إلى (ChatGPT-5)، إذ يرى أن «الذكاء الاصطناعي أقوى من الكهرباء أو النار، ويجب أن يُدار بحذر ومسؤولية».
وقد فسّر (ChatGPT) ذلك بأن النماذج القوية لا ينبغي إطلاقها دون قيود، بل يجب اختبارها وتأمينها أولاً، مع ضرورة أن يكون للدول النامية «صوت في قرارات التطوير»، خشية من الأضرار التي تتحمّل مسؤوليتها الشركات والحكومات والمجتمعات العلمية.
وتعني عبارة «بحذر ومسؤولية» في تطوير الذكاء الاصطناعي إدراك حجم القوة والخطر؛ إذ يرى ألتمان أن «الخطر ليس في أن نصنع آلات تفكّر مثل البشر، بل في أن يتوقف البشر عن التفكير بأنفسهم»، ويضيف أنه يؤيد تطوير ذكاء اصطناعي قوي، مع المطالبة بحوكمة عالمية له، مشبّهًا إدارته بالطاقة النووية.
فالذكاء الاصطناعي، برأيه، مثل النماذج المتقدمة (GPT وSora)، أصبح قادرًا على:
- كتابة البرامج.
- توليد صور وفيديوهات واقعية جدًّا.
- التأثير في قرارات البشر (حتى السياسية والدينية والتعليمية).
- اختراق الخصوصية بسهولة إذا أسيء استخدامه.
كما تعني «المسؤولية» عدم الاندفاع في تطويره بسرعة متهوّرة دون فهم تأثيراته المجتمعية، وذلك من أجل:
– مراعاة آثار الاستخدام على البشر.
– عدم السماح باستخدامه في الحروب أو القمع أو التضليل.
– ضمان الشفافية، بحيث يعرف المستخدم كيف ومتى يُستخدم الذكاء الاصطناعي.
– إشراك الشعوب في نقاش «كيف نحكم الذكاء الاصطناعي؟».
– حماية الأطفال والمجتمعات الضعيفة والوظائف من الأضرار المحتملة.
تحرّك عربي
في إطار هذه التحديات، أدخلت دولة الكويت، ضمن (رؤية الكويت 2035)، استراتيجية لتعزيز الذكاء الاصطناعي في التعليم؛ فأطلقت وزارة التعليم في الكويت خدمة «مع حمد» (Chat Abbreviation)، وهي خدمة محادثة ذكية عبر موقع الوزارة في أبريل 2025، تمثّل منصة تهدف إلى دعم التواصل وتقديم إجابات فورية للطلاب والمعلمين باستخدام أداة تعتمد على الذكاء الاصطناعي.
كما شهدت مبادراتٌ أخرى إدخالَ الذكاء الاصطناعي في مدارس التعليم الثانوي، من خلال مختبرات تعليمية وورش تفاعلية.
ويؤكد مراقبون وجود توجيه شفهي ومحاضرات داخلية في المدارس، مثل توزيع كتيبات، وعقد لقاءات توعوية حول المعايير الأخلاقية لاستخدام الأدوات الذكية.
وسلكت بعض الجامعات العربية هذا الاتجاه، ولكن بدرجات متفاوتة؛ مثل جامعة الملك سعود و(KAUST)، حيث ناقشتا قضايا الذكاء الاصطناعي في الأوساط الأكاديمية، ووضعت بعض الكليات تحذيرات عامة من «النسخ من أدوات الذكاء الاصطناعي» في الأبحاث، دون وجود سياسات مكتوبة ومفصّلة.
كما بدأت وزارة التعليم السعودية مراجعة المناهج لدمج الذكاء الاصطناعي في التعليم بصورة آمنة.
وفي جامعات كبرى مثل القاهرة وعين شمس، لم تُعلن حتى الآن سياسة موحّدة، إلا أن بعض الأساتذة – لا سيما في كليات الإعلام والآداب – أصبحوا يطلبون من الطلاب إقرارًا بعدم استخدام أدوات مثل (ChatGPT).
وقدّمت جامعات مثل «النيل» و«الجامعة الألمانية» محاولات لتدريس الذكاء الاصطناعي من منظور أخلاقي.
كما ناقشت جامعة قطر، في بعض كلياتها (مثل التربية والهندسة)، أهمية تنظيم استخدام الذكاء الاصطناعي، وأصدرت إرشادات توعوية، وإن لم تتحول بعد إلى قوانين إلزامية.
وفي دولة الإمارات، تعمل جامعات مثل «جامعة محمد بن زايد للذكاء الاصطناعي» على صياغة أخلاقيات استخدام الذكاء الاصطناعي في التعليم، ضمن مبادرات لإدراج «الذكاء الاصطناعي المسؤول» كمادة دراسية، إلا أنه لا توجد حتى الآن قواعد رسمية تضبط استخدامه في البحوث أو الواجبات.
وعلى الرغم من هذه الجهود، لا تزال الجامعات العربية تفتقر إلى لوائح إلزامية موحّدة وواضحة، على غرار «سياسات الذكاء الاصطناعي» التي أصدرتها جامعتا كامبريدج وهارفارد عام 2023، أو تلك التي أصدرتها ستانفورد عام 2024.
الوثائق التوجيهية
صدرت وثائق توجيهية عن مؤسسات ثقافية عالمية وعربية في هذا المجال؛ من أبرزها ما صدر عن منظمة اليونسكو (بالعربية) حول أخلاقيات الذكاء الاصطناعي في التعليم، حيث شاركت وزارة التعليم السعودية في مناقشات تتعلق بهذه السياسات.
كما تتجه المنظمة العربية للتربية والثقافة والعلوم (ALECSO)، التابعة لجامعة الدول العربية، إلى إعداد دليل إرشادي لتعليم الذكاء الاصطناعي بصورة آمنة.
سياسة استخدام الذكاء الاصطناعي
على غرار مسودات جامعات هارفارد وكامبريدج في التعامل مع الذكاء الاصطناعي، يُقترح إعداد مسودة أو تنظيم ورشة عمل، في ضوء توصيات (ChatGPT)، لوضع «سياسة استخدام الذكاء الاصطناعي» صالحة للتطبيق في جامعة عربية.
الأهداف:
- تعزيز الاستخدام الأخلاقي للذكاء الاصطناعي.
- توجيه الطلاب وأعضاء هيئة التدريس نحو أفضل الممارسات.
- منع الغش الأكاديمي والتضليل.
- تمكين الطلاب من التفاعل النقدي مع أدوات الذكاء الاصطناعي.
نطاق السياسة:
تنطبق هذه السياسة على:
- الطلاب في المقررات الدراسية.
- أعضاء هيئة التدريس في إعداد المحتوى والتقييم.
- الباحثين في إنتاج الأوراق والمشروعات.
- الأطراف المتعاونة مع الجامعة في المشاريع الأكاديمية.
التعريفات:
- الذكاء الاصطناعي التوليدي: أدوات رقمية قادرة على إنتاج نصوص أو صور أو أكواد برمجية بناءً على مدخلات بشرية.
- الاستخدام المسؤول: استخدام الأداة بوصفها وسيلة مساعدة، مع الحفاظ على أصالة المنتج النهائي، والإفصاح عند الحاجة.
المبادئ الأساسية:
- يُسمح باستخدام أدوات الذكاء الاصطناعي في الحالات التالية:
- العصف الذهني أو توليد أفكار أولية.
- التدقيق اللغوي أو إعادة الصياغة الأولية.
- الترجمة المبدئية للنصوص.
- توليد كود مبدئي في مشاريع البرمجة، مع مراجعة بشرية لاحقة.
- يُمنع استخدامها في الحالات التالية:
- النسخ المباشر من الذكاء الاصطناعي وتسليمه كعمل شخصي دون مراجعة أو تعديل.
- استخدامها في الإجابة عن أسئلة الاختبارات أو المهام الفردية دون تصريح.
- توليد محتوى زائف أو غير موثّق في الأبحاث أو العروض.
- إخفاء الاعتماد عليها في الأطروحات أو المشروعات النهائية التي يُفترض أن تعكس العمل الفردي.
الإفصاح والشفافية:
يُطلب من الطالب أو الباحث الإفصاح بوضوح عن استخدام أدوات الذكاء الاصطناعي، كأن يتضمن البحث عبارة مثل: «تمت الاستعانة بـ ChatGPT في تنظيم الأفكار الأولية لهذا البحث». ويُعدّ عدم الإفصاح خرقًا لقواعد النزاهة الأكاديمية.
مسؤولية أعضاء هيئة التدريس:
- توضيح ما إذا كان استخدام أدوات الذكاء الاصطناعي مسموحًا في كل مهمة.
- تصميم تقييمات تقلل من فرص الاعتماد الكامل على الأدوات التوليدية.
- تعليم الطلاب كيفية التحقق من المعلومات التي تنتجها هذه الأدوات.
العقوبات:
في حال ثبوت الاستخدام المخالف:
- المرة الأولى: إنذار وإعادة التقييم مع خصم درجات.
- المرة الثانية: رسوب في المهمة أو المقرر.
- حالات الغش المتعمد: تحقيق تأديبي قد يصل إلى الفصل المؤقت.
النتائج:
يرتبط استخدام الذكاء الاصطناعي ارتباطًا إيجابيًّا بالأداء الأكاديمي.


