لا مجتمع بلا نسق قيم ومنظومة أخلاقيات تُحدد ماهيته، وسلوكياته، ومعاملاته مع الأمور المختلفة. وليس ثمة علم ومعرفة بلا “أيدلوجيا” خاصة بهما، فهما لا يستغنيان عن “منظومة قيمية أخلاقية” ضابطة لهما، ومهيمنة عليهما. كي يُحال بين التطبيقات “النافعة”، والممارسات “الضارة” غير الأخلاقية. فما هي علاقة الذكاء الاصطناعي وتطبيقاته بنسق القيم ومنظومة الأخلاقيات؟
القيم (Values)، “توجه سلوك الأفراد وأحكامهم واتجاهاتهم فيما يتصل بما هو مرغوب فيه أو مرغوب عنه من السلوكيات، في ضوء ما يصنعه ويضعه المجتمع من معايير وقواعد”. أما الأخلاقيات (Ethics)، فتعرّف بأنها “الأسس والمبادئ العامة والتوجيهية للإنسان في تحديد اختياراته على نحو أخلاقي مسؤول، وتحديد أي السلوكيات يتوافق مع الكائنات، وأيها يضرها”.
ولقد أصبحت وسائط التواصل الاجتماعي أمرًا واقعًا، مُعاشًا ومَشاعًا، وباتت آثار استخدامها تنعكس على الجميع فرادى وجماعات، لذا تبرز مسؤولية الكلمة وأمانتها صدقًا ونقلاً، إمساكًا ونشرًا، فخيرها عميم وشرها وخيم. ومن أمانة الكلمات؛ عدمُ إثارةِ الفتن ونشر الشائعات، وإذاعة الافتراءات والكذب، والغيبة والنميمة والبهتان، وعدم السبّ والقذف والتفحش، وتحقير الناس وكشف أسرارهم. والآن يمكن للذكاء الاصطناعي الإضرار بقيم الناس وأخلاقياتهم عبر التحكم فيهم، والتلاعب بهم وبأفكارهم وسلوكهم بسبب سرد موجَّه متحيز، أو بالوصول -مباشرة- إلى معلوماتهم الذهنية الدماغية (سماعات وأساور معصم تسجل أشكالاً من النشاط العصبي والذهني).
التعليم والأمانة العلمية
برزت أهمية علاقة الذكاء الاصطناعي، بالأمانة العلمية، والدقة في ذكر المصادر والاقتباسات، وانتهاك حقوق الملكية الفكرية. لذا خططت مدارس “إدارة تعليم نيويورك” لحظره، وباتت الحاجة مُلحة لإثبات استخدامه ضمن المواد المنهجية المتبعة في البحوث والأطروحات العلمية، وإلا ستعتبر سرقة أدبية، وقد أمسى من الضرورة الاستعانة الأكاديمية ببرامج كشف الاستلال (Detection of plagiarism)، وإضافة إلى ذلك شرع ناشرون في حظر التأليف بالذكاء الاصطناعي، لأنه لا يقع على عاتقه أي مساءلة قانونية. إذن الذكاء الاصطناعي يؤثر بشكل واضح على قيم الصدق والأمانة والنزاهة والموضوعية والعدالة، وهي من المعايير الأخلاقية التي إذا انهارت فقدت الثقة في العلم والمشتغلين به.
أخلاقيات التفلسف والتفنن
وفي ضوء قدرة الذكاء الاصطناعي على إنشاء نصوص فلسفية، ظهرت مخاوف من إنتاج معلومات زائفة، والتأثير على مجموعات ديموغرافية وجنسية بعينها. فقد يصمم مُبرمجون خوارزمية تحمل تحيزاتهم الشخصية، مما يجعلها ظالمة. ومن ناحية الفن هناك إشكالية في حقوق الملكية للفن المولد بالذكاء الاصطناعي، فمسألة قانونية لا إجابة واضحة عليها. ففي حال اعتباره فنًّا، فسيتعلق الأمر بمالك الأعمال المنتجة ومشاركته، فلو كان إنتاجًا كاملاً لأنظمة الذكاء الاصطناعي وحدها فتُنسب حقوق الملكية الفكرية للذكاء الاصطناعي كونه فنانًا مستقلًّا. بينما يرى البعض عودة الملكية، للشركة/الشخص المطور للخورازميات. ولو كانت المدخلات والإرشادات من قبل البشر فستكون حقوق الملكية كاملةً للفنان البشري، ويكون الذكاء الاصطناعي وسيلة. لذا واجهت شركة “جوجل” مشكلة استخدام نظام توليد الموسيقى لبيانات تحتوي على مواد ذات حقوق محفوظة لآخرين. فعبر تجربة تبين أن 1% من موسيقى النظام نسخ من أغانٍ تدرب عليها. ويعد رقم 1% كبيرًا بما يجعل الشركة مترددة في إصداره بشكله الحالي.
أخلاقيات الثروات والوظائف
البنية التحتية للذكاء الاصطناعي والمدن الذكية، باهظة الثمن، وتتطلب تخطيطًا مكثفًا واستثمارات عالية. وعمومًا، ليس كل الناس لديهم إمكانية الوصول إلى الفرص والموارد نفسها. فالأشخاص الذين لا يمتلكون سيارات ذكية، لن ينعموا بالفوائد التي يتمتع بها من يمتلكونها. كما لا يستخدم المسنون الأجهزة والهواتف الذكية بقدر ما يستخدمها الأصغر سنًّا.
ومن السلبيات الأخلاقية الكبيرة، أن ملكية التقنيات الذكية وثرواتها المتنامية، ستركز الثروة بيد فئة قليلة من البشر، الأمر الذي يعمق هوة عدم المساواة، ويغيّب مبدأ عدالة التوزيع. أما نقص معيار الشفافية فناتج عن أن الخوارزميات معقدة للغاية، لدرجة أن أولئك الذين أنشؤوها لا يمكنهم شرح وصول المتغيرات إلى التنبؤ الناتج، مما يجعلها صندوقًا أسود. فبناء على توقع الذكاء الاصطناعي لجدارة ائتمانية لعميل مَصْرفي، نراه يرفض إقراضه، وليس للمصرف القدرة على تفسير سبب ذلك. وكما أسهم الذكاء الاصطناعي في كونه مُكملاً لمجالات من العمل البشري، إلا أنه سيتم تسريح/فقدان العديد من الوظائف والمهن (إدارية، وقانونية، ومعمارية ..إلخ). ويتم إحلال روبوتات محل عمال/موظفين تقليديين، مما يؤدي إلى زيادة معدلات البطالة الجماعية.
وتخشى بعض المؤسسات -كالمصارف- من تلاشي عملها، فأكثر التحويلات المصرفية عبر العالم أمست “أون لاين” وعبر الاتصالات الجوالة. كما ستقلُّ التنافسية بين الشركات لتَشابُه منتجاتها وخدماتها (غير الإبداعية)، وتسرب معلوماتها الاقتصادية والتجارية والمالية الحسّاسة. كل هذا -وغيره- سيعمل على شيوع البطالة وتداعياتها على القيم والأخلاق والتماسك المجتمعي، وانتشار الجرائم الإلكترونية.
أخلاقيات أمن المعلومات والأمن العام
يُعتبر الذكاء الاصطناعي سلاحًا ذا حدين، فهو أداة جنائية بيد قراصنة، ومحتالين، وتجار مخدرات وتهريب أموال؛ حيث يمكنه اختراق الحسابات الحكومية والبنكية والشخصية، وقرصنة واستغلال البيانات والمعلومات السرية لمصالح ذاتية. وهو -أيضًا- حلٌّ لمشاكل الأمن السيبراني، وتحسين أدوات مكافحة القرصنة والتزوير، وتسهيل التعرف على الهجمات والجرائم الإلكترونية والجنسية، ويعدُّ أمن المعلومات وخصوصيتها، وقيمه وأخلاقياته من أكثر المواضيع (العلمية والمهنية والأمنية) إثارة للجدل.
فلأغراض عديدة -وظيفية ووقائية وأمنية- أمست أخلاقيات تحري بصمة الوجه والعينين والحدقتين من الأهمية بمكان. وصار الوجه معرّفًا بيومتريًّا لتحديد هوية الأشخاص. وعند الحاجة تطابق الصورة الملتقطة من كاميرا/فيديو مع صور قاعدة بيانات الوجوه، فيحدد هوية الشخص فورًا. لكن بعض الطرق التي أخفقت نظم التعرف إلى الوجه أدت لتحفظات كبيرة حول الثقة بها. وهنا تبرز خطورة انتحال الصفة (صلاحية الوصول بدون وجود وجه الشخص الفعلي)، والاختراق والوصول لملفات مخزنة من النماذج وقوالب المقاييس الحيوية لبصمات الوجوه، مما يُمكن من إعادة هندسة القوالب والصور الأصلية لأغراض تعود بالضرر (لا ضرر، ولا ضرار) الفردي والجماعي (عرق، وجنس بعينه)، وغياب الخصوصية والحريات المدنية والعدالة الاجتماعية. أما التسجيل الخاطئ فيمكن أن يؤدي إلى وضع أبرياء على قوائم الترقب والاشتباه، بل والجزاء الجنائي.
وتنص التدابير على أن جمع المعلومات الشخصية ينبغي أن تكون آمنة، ولأغراض قانونية وضرورية ومحدودة، كما يتطلب -أحيانًا- الموافقة الشخصية عليها، إلا أن الواقع حيث توضع كاميرات في الأماكن العامة، يفتقد عنصر الموافقة المسبقة أو الالتزام بحماية أمن وسلامة البيانات البيومترية لبصمات الوجوه كما ينبغي. وهناك خطر متزايد من إمكانية استخدام آليات الذكاء الاصطناعي في إلحاق الأذى بالفئات المهمشة، وكبت حرية التعبير والصحافة، وتهديد حقوق الإنسان، وتأجيج الانقسامات، والتأثير على مجريات الأمور العامة.
أخلاقيات التطبب الذكي
قد تنطوي الرعاية الصحية الذكية على فجوات في الرعاية، أو إفراط طلبها غير الضروري، أو استخدام غير ملائم للأدوية والتدخلات السريرية غير الدقيقة، وكذلك يقل التفاعل الإنساني بين المرضى ومقدمي الرعاية الصحية، ويحول دون إجراء الأطباء فحصًا بدنيًّا مباشرًا، مما قد يؤثر على دقة التشخيص والعلاج. وبالتالي يعاني المريض فقد الجانب الإنساني والدعم الوجداني، وقد لا يُلتفت لتفاصيل هامة في التاريخ الطبي، وقد لا يكون التطبيق المستخدم في اتخاذ القرارات مناسبًا إذا وجد تاريخ طبي معقد، أو كانت عملية نقل السجلات وملف التصوير التشخيصي ضعيفة. ويدور جدل أخلاقي حول أمنِ وسريةِ بيانات المرضى المُخَزّنة على البطاقة الصحية الإلكترونية، وكذلك الضوابط الأخلاقية لنقل وزرع الأنسجة والأعضاء، وتحد مؤشرات الموت (السريري والدماغي) لسرعة أخذ الأنسجة والأعضاء وزرعها في آخرين على قائمة الانتظار.
إشكاليات قيمية وأخلاقية
من الإشكاليات القيمية والأخلاقية الهامة؛ دمج الأخلاق والعاطفة البشرية داخل آلة الذكاء الاصطناعي، لتبدو الحدود الفاصلة بين البشر والروبوتات غير واضحة، ويتوقع تمتع الآلة بمستوى عال من الوعي الأخلاقي والوجداني المشابه للإنسان، لكن لا يُتصور أن تبدي عاطفة عند اتخاذ القرارات المؤثرة (كطلبات القروض). وعبر إتاحة الفرصة للآلات والروبوتات للتعلم الذاتي والعميق، وتطوير نفسها وقدراتها بنفسها، ومن ثم قدرة رد الفعل بأسلوب أذكى، واتخاذ قرارات غير متوقعة، وأنها تتولى زمام الأمور بنفسها.. تبرز المخاوف من تفوُّق الذكاء الاصطناعي على البشري. فهل فعلاً ستتفوق الآلات علينا، وستقضي على إنسانيتنا وتحتل العالم؟ إنها تساؤلات وسيناريوهات باتت تطرح نفسها بقوة، لذا ما من مجال أحوج لنبراس أخلاقي عالمي أكثر من الذكاء الاصطناعي.
التوصية بأخلاقيات الذكاء الاصطناعي
في نوفمبر 2021م أعدّت “اليونسكو” أول “توصية خاصة بأخلاقيات الذكاء الاصطناعي”، واعتمدتها الدول الأعضاء المائة والثلاث والتسعين. وتؤكد التوصية على: الذود عن حقوق الإنسان، والكرامةُ الإنسانية، ركيزة أساسية من ركائز الاتفاقية. وذلك استنادًا للنهوض بالمبادئ الأساسية المتمثلة في الشفافية والإنصاف والتذكير الدائم بضرورة الإشراف البشري على نظم الذكاء الاصطناعي. وتمتاز التوصية بقابلية استثنائية للتنفيذ نظرًا إلى مجالات عملها الواسعة، التي تتيح لصناع السياسة ترجمة القيم والمبادئ الأساسية إلى أفعال. مع احترام حوكمة البيانات، والبيئة والنظر الإيكولوجية، والنوع الاجتماعي، والتربية والبحوث والصحة والرفاه الاجتماعي، وغيرها الكثير من مختلف مناحي الحياة.. مع احترام حقوق الإنسان والحريات الأساسية، والكرامة الإنسانية وحمايتها وتعزيزها. وضمان العيش في مجتمعات سلمية وعادلة ومترابطة.. والحرص على التنوع والشمولية، مع ازدهار البيئة والنظم البيئية.
(*) كاتب وأكاديمي مصري.
المراجع
(1) ارتقاء القيم: دراسة نفسية، د. عبد اللطيف محمد خليفة، عالم المعرفة، العدد:160، أبريل 1992، الكويت.
(٢) الوظائف التي قد تشغلها الروبوتات: فهل مهنتك بخطر؟ تقرير على موقع روسيا اليوم، وكذلك على مركز الأهرام للدراسات السياسية والإستراتيجية (22/5/2023م).
(٣) Top Challenges for Artificial Intelligence in 2020, (geeksforgeeks, 2020). Available at this link: https://www.geeksforgeeks.org/top-challenges-for-artificial-intelligence-in-2020/
(٤) https://www.unesco.org/ar/artificialintelligence/recommendation-ethics