حوكمة تكنولوجيا الذكاء الاصطناعي بين الواقع والمرتقب (دراسة)

يونيو 15, 2025

كتبت – د. شيماء سعيد العربي

خبير اقتصادي وعضو بالجمعية المصرية للاقتصاد السياسي والإحصاء والتشريع

يشهد العالم ثورة تكنولوجية متسارعة، وظهور تقنيات متقدمة، ومنها الذكاء الاصطناعي الذي ينمو بمعدل سنوي بنحو 40% [1] خاصة الذكاء العميق والتوليدي والتكيفي. وهذا ما جعله إحدى الركائز الضرورية في كافة المجالات الاقتصادية والسياسية والاجتماعية والعسكرية، وقد انتشرت الروبوتات في هذه المجالات وبرزت في المجال العسكري، ومن ثم فإن الاستخدام غير المُقنن أو غياب الرقابة والحوكمة لتكنولوجيا الذكاء الاصطناعي قد يؤدي إلى انتشار المعلومات المضللة، والاستخدام غير القانوني للبيانات وانتهاك الخصوصية، ومن ثم التأثير السلبي ف حقوق الإنسان، وسوق العمل باختفاء الكثير من الوظائف، وعلى الأمن القومي. وهو ما قد ينتهي بالاضطرابات السياسية والاقتصادية، أو نزاعات دولية. إضافة للتأثير السلبي في البيئة[2].

وعلى الجانب الآخر يظهر غياب وجود إطار قانوني عالمي يُقنن استخدام تقنيات الذكاء الاصطناعي، حيث يوجد نحو 60% من الدول الأعضـاء في الأمـم المتحـدة لم تضع بعد استراتيجية وطنية للذكاء الاصطناعي، ما يعكس نقصًا في الأطر القانونية المنظمة للذكاء الاصطناعي، كما يوجد هيمنة لكبرى الشركات على هذه التقنيات في ظل منافسة جيوسياسية كبيرة مع غياب الشفافة.[3]

ومن هنا نؤكد على أهمية حوكمة الذكاء الاصطناعي، وعليه نوضح مفهوم حوكمة الذكاء الاصطناعي وهو عملية وضع السياسات، واللوائح، والمعايير الأخلاقية التي تحكم تطوير واستخدام تقنيات الذكاء الاصطناعي. وتشمل مجموعة من القضايا، بما في ذلك خصوصية البيانات، وشفافية الخوارزميات، والمساءلة، والعدالة.[4]

أولاً: ملامح تطور الذكاء الاصطناعي وأهميته

إن تطبيقات الذكاء الاصطناعي تشهد رواجًا وانتشارًا كبيرًا؛ إذ دخلت في كافة المجالات، فعلى سبيل المثال في خدمات البيع بالتجزئة والجملة، والتصنيع، والخدمات الاحترافية، والمعلومات والاتصالات، والخدمات  المالية، والبناء، والرعاية الصحية، والنقل والتخزين، والإقامة وخدمات المطاعم، وتأليف الموسيقى والترفيه، وقراءة النص، بالإضافة إلى الوظائف التقليدية لها كتصنيف البيانات والمعلومات وتحليلها والتنبؤ ببعض الظواهر، ورسم المخططات وتشخيص الأمراض، وفي تحسين تطبيقات التعليم والتعلم عن بعد، والروبوتات والعربات ذاتية القيادة، والمجال العسكري . ويمكن القول إن الشركات الدولية الكبرى تتنافس في توجيه مليارات الدولارات في الاستثمار في تطبيقات الذكاء الاصطناعي.

وقد واكب ذلك انتشار تطبيقات الذكاء الاصطناعي التي أسهمت في تغيير طبيعة الوظائف في سوق العمل وظهور وظائف جديدة.

ومن ثم ففي ظل عالم متغير يتسم بنمو كبير للتكنولوجيا وانتشار سريع لتقنيات الذكاء الاصطناعي، يتوقع أن تُسهم تطبيقات الذكاء الاصطناعي في ارتفاع نمو الناتج المحلي العالمي بنسبة تصل لنحو 14 % عام 2030، ما يعادل 16 تريليون دولار.[5]

ثانيًا: التحديات المستقبلية في حال غياب حوكمة الذكاء الاصطناعي

 إن الخبراء والمتخصصين حول العالم يؤكدون تخوفهم من غياب حوكمة الذكاء الاصطناعي وفي استطلاع للرأي أجرته الأمم المتحدة وبالتحديد مكتب الأمين العام المعني بالتكنولوجيا وشبكة الهيئة الاستشارية لنحو 348 خبيرًا في مجال الذكاء الاصطناعي، ومن مختلف التخصصات من 68 دولة، أن 7 من كل 10 خبراء شملهم الاستطلاع يشعرون بقلق من الأضرار الحالية أو الجديدة الناجمة عن الذكاء الاصطناعي.[6]

 ومن المتوقع أن يؤدي تعاظم دور تطبيقات الذكاء الاصطناعيّ والتوسع فيها إلى عدد من التحديات أبرزها ما يلي:

1- اختفاء وظائف قائمة وبالتالي زيادة معدل البطالة بين من لا يستطيع التأقلم مع المهارات الجديدة التي ظهرت؛ حيث تشير التقديرات بتوقع فقدان نحو 800 مليون عامل لوظيفته بحلول عام 2030، وهو الأمر الذي سيكون له تأثير في زيادة معدل الفقر، والفجوة الرقمية، وعدم المساواة داخل المجتمعات.

2- التأثير الكبير على البيانات الشخصية والتعامل معها، وهو ما يؤثر في خصوصية المستخدمين، في ظل انتشار استخدام كاميرات المراقبة والهواتف الذكية، وهو ما يؤدي لانتشار الجرائم الإلكترونية والقرصنة.

3- الهجمات السيبرانية على المُنشآت أو القطاع الحكومي والخاص، وهو ما يؤدي لتفاقم الخسائر المالية والاقتصادية.

4- تحيّز تطبيقات الذكاء الاصطناعي نتيجة طبيعة تشكيل الخوارزميات التي تعتمد عليها في تحليل البيانات، وانعكاس ذلك على عملية إتاحة الخدمات، أو الوظائف، أو التمييز ضدّ مجموعات، أو أفكار محددة تنتج في النهاية قرارات غير عادلة.

5- انتشار التزييف العميق سواء عبر إنتاج المقاطع الصوتية أو البصرية، أو بتدشين شخصيات رقمية.

6- مواجهة العديد من الدول معوقات مالية تحدُّ من قدرتها على استخدام الذكاء الاصطناعي.

7- سيطرة الشركات الكبرى في مجال الذكاء الاصطناعي أو الدول الكبرى، على التقنيات وهو ما يؤدي إلى الهيمنة السيبرانية وعسكرة تطبيقات الذكاء الاصطناعي ومن ثم التأثير في الاستقرار الدولي.

8- صعوبة أن يوجد نظام عالمي لحوكمة الذكاء الاصطناعي نتيجة تحديات التمثيل والتنسيق والتنفيذ.

 ثالثًا: أبرز الدوافع والأسباب لضرورة وأهمية حوكمة الذكاء الاصطناعي تتمثل في التالي:

  • الذكاء الاصطناعي هو من التكنولوجيا ذات الاستخدام المزدوج.
  • رُخص تكلفة الذكاء الاصطناعي إلى حد ما يسهل ويوسع استخدامه بشكل لا نهائي، سواء للاستخدامات المدنية أو العسكرية.[7]
  • تأثير سلبي في البيئة، وسوق العمل، والخصوصية وعدة مجالات إذا لم يتم حوكمة وضبط الاستخدام.
  • الحاجة الملحة لبناء الثقة في تقنيات الذكاء الاصطناعي وضمان استفادة الجميع منه دون التسبب في أي ضرر.

ومن ثم تتمثل مهام حوكمة الذكاء الاصطناعي وأهميته في التالي:

  • وضع المعايير والقوانين للاستخدام والمتابعة والمساءلة.
  • التعاون الدولي بشأن البيانات والحوسبة ووضع مقترحات وأليات لتعظيم فوائد الاستخدام؛ لتحقيق أهداف التنمية المستدامة.
  • الوساطة حول أطر المعايير والسلامة لإدارة المخاطر.
  • تسهيل نظام التطوير والتدريب لنماذج الذكاء الاصطناعي.

وتتمثل أهم ركائز حوكمة الذكاء الاصطناعي في (الوقائية: أي وضع القواعد واتخاذ القرارات الاحترازية للمخاطر المحتملة، الشمولية: لكافة الجوانب والقطاعات، القواعد المُحكمة والموجهة، وسرعة الحركة والقيام على التنبؤ والديناميكية والمرونة).

وعلية تؤكد الدراسة على أن حوكمة الذكاء الاصطناعي يجب أن تقوم على نحو شامل، من قبل الجميع وفق المبدأ التوجيهي، على أن يحكم الذكاء الاصطناعي المصلحة العامة، وحوكمة البيانات والعمل على وجود بيانات متاحة للعموم، وأن تكون حوكمة الذكاء الاصطناعي عالمية وشبكية ومتجذرة في التعاون التكيفي بين أصحاب المصلحة، وأن ترتكز حوكمة الذكاء الاصطناعي على ميثاق الأمم المتحدة والقانون الدولي لحقوق الإنسان والالتزامات الدولية الأخرى المتفق عليها، مثل أهداف التنمية المستدامة.

رابعًا: الجوانب القانونية والأخلاقية لاستخدام تقنيات الذكاء الاصطناعي

انطلاقًا من احتمالية أن ينشأ عن استخدام تقنيات الذكاء الاصطناعي مخاطر وأضرار، ولكي تطبق المسائلة القانونية ينبغـي أن تتوافر في أي حالة تحقق الأذى فعليًا سواء في صورة ضرر جسدي أو مادي، أو معنوي مثل فقدان الثقـة أو المشـاعر السـلبية التـي قـد تـنجم عـن الاستخدام غير الأخلاقي للـذكاء الاصـطناعي، كما يجب إثبات العلاقة السببية بين الفعل غير المشروع والضرر، مع تحديد الجهة المسؤولة بدقة.

خامسًا: نماذج دولية وإقليمية لحوكمة الذكاء الاصطناعي

ومن أبرز ما قامت به دول العالم لحوكمة الذكاء الاصطناعي قيام اليابان بوضع إرشادات كما أنها تسمح للقطاع الخاص بإدارة استخدام الذكاء الاصطناعي بفاعلية. ووضع الهند قانون حماية البيانات الشخصية الرقمية، وينطبق القانون (DPDPA) على جميع المنظمات التي تعالج البيانات الشخصية للأفراد في الهند منذ عام 2023، ويركز على تطبيقات الذكاء الاصطناعي عالية المخاطر، وهو ما يمثل خطوة نحو حوكمة أكثر تنظيمًا لتقنيات الذكاء الاصطناعي.[8]

كما أصدر البرلمان الأوروبي قانون الذكاء الاصطناعي للاتحاد الأوروبي، بهدف تنظيم استخدام أنظمة الذكاء الاصطناعي في جميع دول الاتحاد الأوروبي.[9]

ومن أبرز ما قامت به المنظمات قيام الأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية بتسهيل حوار دولي لوضع استراتيجيات مشتركة؛ لمواجهه التحديات والمخاطر المتوقعة من استخدام الذكاء الاصطناعي، كما أصدرت منظمة التعاون الاقتصادي والتنمية مجموعة من المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي عام 2020. وقد وضعت منظمة الصحة العالمية إرشادات بشأن أخلاقيات وحوكمة نماذج الذكاء الاصطناعي (وهي نوع من تكنولوجيا الذكاء الاصطناعي التوليدي السريعة التطور والمُستعملة تطبيقاته في كل نواحي الرعاية الصحية).[10]

كما أصدر الاتحاد الأفريقي مبادرة الذكاء الاصطناعي عام 2020؛ لتعزيز الاستخدام المسؤول للذكاء الاصطناعي، وتلبية احتياجات السكان لهذه التقنية.

وقد تعاون الاتحاد الدولي للاتصالات بالشراكة مع نحو أربعين هيئة من هيئات الأمم المتحدة لتنظيم منتدى الذكاء الاصطناعي عام 2024.

كما توجد العديد من الشركات العالمية التي قامت بتقنين التطبيقات فعلى سبيل المثال لا الحصر قامت شركة مايكروسوفت ببناء ذكاء اصطناعي مسؤول من خلال وضع مبادئ لحوكمة الذكاء الاصطناعي المسؤول.

وعلى نطاق الوطن العربي وأفريقيا قامت السعودية بإنشاء هيئة البيانات والذكاء الاصطناعي (سدايا) لمناقشة أهم القضايا الخاصة بالذكاء الاصطناعي، كما قامت الإمارات عام 2017 بوضع استراتيجية الذكاء الاصطناعي2031، وقد قامت مصر بإنشاء المجلس الوطني للذكاء الاصطناعي عام 2019 ويضم خبراء في مجال الذكاء الاصطناعي بهدف حوكمة استراتيجية الذكاء الاصطناعي.[11]

كما أطلقت مصر في يناير 2025 الإصدار الثاني من الاستراتيجية الوطنية للذكاء الاصطناعي، وترتكز على 6 محاور رئيسية: وهى محور الحوكمة، محور البنية التحتية، محور النظام البيئي، محور حوكمة البيانات، محور التكنولوجيا، ومحور تنمية المهارات في الذكاء الاصطناعي.[12]

وتم إنشاء صندوق الاستثمار التأسيسي في رواندا، والمركز الوطني للذكاء الاصطناعي والروبوتات في نيجيريا.[13]

وتؤكد الدراسة على أهمية تفعيل المسؤولية الدولية والإقليمية، وتعزيز تعاون المنظمات الدولية والإقليمية والدول العربية تجاه هذه التقنيات، وتفعيل دورهم في إرساء الأطر القانونية والسياسية الرقابية؛ لحوكمة الذكاء الاصطناعي دوليًا وداخليًا والرقابة والشفافية لإدارة المخاطر الناتجة عن تطبيقاته.

سادسًا: نماذج مستقبلية لحوكمة الذكاء الاصطناعي

إن حوكمة الذكاء الاصطناعي يمكن أن يكون في صورة نموذج يقوم على التالي:

  1. حوكمة متعددة الأطراف: إشراك الحكومات، القطاع الخاص، المجتمع المدني، والأكاديميين في صياغة السياسات.
  2. حوكمة قائمة على المبادئ: مثل مبادئ الشفافية، القابلية للمساءلة، العدالة، واحترام الخصوصية.
  3. تنظيم ديناميكي وتكيفي: أطر تنظيمية قابلة للتحديث السريع بما يواكب التطورات.
  4. استخدام الذكاء الاصطناعي في حوكمة الذكاء الاصطناعي: من خلال أنظمة رقابة تلقائية ورصد الانحرافات.

خاتمة

إن مستقبل الذكاء الاصطناعي يجب أن يُبنى على الثقة، والمعرفة، والتعاون، حتى يكون أداة لتحقيق التنمية المستدامة وخدمة البشرية جمعاء، لا مصدرًا للهيمنة أو الصراع، خاصة في ظل التقدم المتسارع لتقنيات الذكاء الاصطناعي وتوسع استخدامها في مختلف مجالات الحياة، وعليه بات من الضروري التحرك السريع والفعّال نحو وضع أطر تنظيمية واضحة، وشاملة تضمن الاستخدام المسؤول لهذه التكنولوجيا. فغياب الحوكمة الرشيدة قد يؤدي إلى تداعيات خطيرة تمس خصوصية الأفراد، وتزيد من حدة الفجوة الرقمية، وتفتح المجال أمام الانتهاكات القانونية والأخلاقية، بل وتؤثر على الأمن القومي والاستقرار الدولي.

تؤكد الدراسة على إن تطبيق حوكمة الذكاء الاصطناعي له العديد من المزايا والآثار الإيجابية على الأمن والبيئة وحقوق الإنسان والخصوصية، فهو يحد من مخاطر الاستخدام غير المقنن، كما يمكن توجيه استخدام الذكاء الاصطناعي بما يخدم أهداف التنمية المستدامة.

وعلى الجانب الأخر يمكن القول إن تحقيق أقصى استفادة من الذكاء الاصطناعي يتطلب بيئة قانونية وأخلاقية مرنة، شاملة، واستباقية، تدعم الابتكار وتحمي في الوقت ذاته من المخاطر المحتملة. وعليه يجب أن تقوم حوكمة الذكاء الاصطناعي على مبادئ الشفافية، والمساءلة، والعدالة، واحترام حقوق الإنسان، والمسؤولية المشتركة بين الحكومات، والشركات، والمجتمع المدني، والمنظمات الدولية.

ومن هنا توصي الدراسة بالآتي:

  • الدعوة لمنتدى سياسات عالمي لتوحيد الرؤى حول حوكمة الذكاء الاصطناعي.
  • إنشاء صندوق عالمي للذكاء الاصطناعي لتقديم التسهيلات المالية.
  • إنشاء كيان معني بالذكاء الاصطناعي، يتكون من خبراء من مختلف التخصصات والبلدان المعنية بهذا المجال برعاية وكالات الأمم المتحدة والمنظمات الدولية الأخرى ذات الصلة.
  • وضع إرشادات أخلاقية للذكاء الاصطناعي ونشرها.
  • إنشاء هيئات رقابية متخصصة أو إنشاء صندوق لرصد الآثار وتنفيذ المساءلة بحيث تترجم الالتزامات بالحوكمة العالمية الذكاء الاصطناعي إلى نتائج ملموسة في الممارسة العملية.
  • وضع استراتيجية استباقية والمواكبة والتطوير المستمر لأطر إدارة المخاطر المحتملة لمعالجة المخاطر التقنية والتشغيلية والسمعية والأخلاقية الكامنة في أنظمة الذكاء الاصطناعي.
  • وضع مدونة أخلاقيات مُصممة خصيصًا لحوكمة تقنيات الذكاء الاصطناعي.
  • تنمية القدرات وإنشاء مراكز دولية وإقليمية ومحلية وتبادل الخبرات، ودعم المؤسسات الصغيرة والمتوسطة لتقاسم الفرص.
  • إصدار تشريعات ملزمة تنظم الذكاء الاصطناعي على المستويين الوطني والدولي.
  • نشر الوعي بأهمية الاستخدام المسؤول للذكاء الاصطناعي، وتعزيز الشفافية في تصميم وتدريب النماذج.
  • إشراك المجتمعات المتأثرة في صنع القرار من خلال منصة للحوار.
  • الاستثمار في بحوث أخلاقيات الذكاء الاصطناعي.

مراجع


[1] تريندز للبحوث والاستشارات. (2025)، نحو مستقبل أفضل حوكمة الذكاء الاصطناعي وتقنيته، متاح على الرابط التالي: https://trendsresearch.org/ar/product/%D9%86%D8%AD%D9%88-%D9%85%D8%B3%D8%AA%D9%82%D8%A8%D9%84-%D8%A3%D9%81%D8%B6%D9%84-%D8%AD%D9%88%D9%83%D9%85%D8%A9-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9/?srsltid=AfmBOoo9nY_PglnZlqWaSYJ7ANtGN0dce2Pj-zDF3h5p20YESVGf4lhX

[2] The World Bank. (2025), The AI governance balancing act: Navigating opportunities and risks, available at: https://blogs.worldbank.org/en/digital-development/the-ai-governance-balancing-act–navigating-opportunities-and-ri#:~:text=AI%20isn%27t%20just%20about%20technology%E2%80%94it%27s%20about%20people.,ensuring%20AI%20becomes%20a%20force%20for%20good.

[3]شريهان، ممدوح. (2024)، الحوكمة الدولية في مجال تقنيات الذكاء الاصطناعي، مجلة الشريعة والقانون، جامعة الأزهر، متاح على الرابط التالي: https://mawq.journals.ekb.eg/article_405567_8c656ccfa81ede348929d91816c3ec5d.pdf

[4] Frank Appiah. (2024), What Is AI Governance? The Reasons Why It’s So Important, American Military Universityhttps://www.amu.apus.edu/area-of-study/information-technology/resources/what-is-ai-governance/

[5] عادل عبد الصادق. (2023)، الذكاء الاصطناعي وآفاقه المستقبلية، مركز الأهرام للدراسات السياسية والاستراتيجية، متاح على الرابط التالي: https://acpss.ahram.org.eg/News/20893.aspx

[6] الأمم المتحدة. (2024)، حوكمة الذكاء الاصطناعي من أجل الإنسانية، متاح على الرابط التالي: https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_ar.pdf

[7] صندوق النقد الدولي. (2023)، ركائز حوكمة الذكاء الاصطناعي، متاح على الرابط التالي: https://meetings.imf.org/ar/IMF/Home/Publications/fandd/issues/2023/12/POV-building-blocks-for-AI-governance-Bremmer-Suleyman

[8] Palo Alto Networks. What Is AI Governance? available at: https://www.paloaltonetworks.ca/cyberpedia/ai-governance

[9] الأكاديمية الدولية للوساطة والتحكيم.( 2024)، خطوة تاريخية: أول قانون شامل للذكاء الاصطناعي في العالم، متاح على الرابط التالي: https://iamaeg.net/ar/publications/articles/comprehensive-artificial-intelligence-law-2024#:~:text=%D8%A8%D8%AA%D8%A7%D8%B1%D9%8A%D8%AE%2013%20%D9%8A%D9%88%D9%86%D9%8A%D9%88%202024%D8%8C%20%D8%A3%D8%B5%D8%AF%D8%B1%20%D8%A7%D9%84%D8%A8%D8%B1%D9%84%D9%85%D8%A7%D9%86%20%D8%A7%D9%84%D8%A3%D9%88%D8%B1%D9%88%D8%A8%D9%8A%20%D9%82%D8%A7%D9%86%D9%88%D9%86,%D8%A3%D9%86%D8%B8%D9%85%D8%A9%20%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1%20%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A%20%D9%81%D9%8A%20%D8%AC%D9%85%D9%8A%D8%B9%20%D8%AF%D9%88%D9%84%20%D8%A7%D9%84%D8%A7%D8%AA%D8%AD%D8%A7%D8%AF%20%D8%A7%D9%84%D8%A3%D9%88%D8%B1%D9%88%D8%A8%D9%8A.

[10] منظمة الصحة العالمية. (2024)، منظمة الصحة العالمية تصدر إرشادات بشأن أخلاقيات وحوكمة الذكاء الاصطناعي في النماذج الكبيرة والمتعددة الوسائط، متاح على الرابط التالي: https://www.who.int/ar/news/item/06-07-1445-who-releases-ai-ethics-and-governance-guidance-for-large-multi-modal-models

[11] شريهان، ممدوح. (2024)، الحوكمة الدولية في مجال تقنيات الذكاء الاصطناعي، مجلة الشريعة والقانون، جامعة الأزهر، متاح على الرابط التالي: https://mawq.journals.ekb.eg/article_405567_8c656ccfa81ede348929d91816c3ec5d.pdf

[12]  الموقع الإلكتروني لرئاسة مجلس الوزراء.(2025)، وزير الاتصالات وتكنولوجيا المعلومات يؤكد التزام مصر بتعزيز حوكمة الذكاء الاصطناعي عالميًا خلال الاجتماع الوزارى التنسيقى لأعضاء الشراكة الدولية للذكاء الاصطناعي والدول المعنية، متاح على الرابط التالي: https://www.cabinet.gov.eg/News/Details/78573

[13] وكالة الأنباء الإثيوبية.(2025)، تقرير جديد يكشف عن الدور التحويلي للذكاء الاصطناعي في الصحة في افريقيا، متاح على الرابط التالي: https://www.ena.et/web/ara/w/ara_6342319