الأخبارمقالات و تحليلات

حوكمة الذكاء الاصطناعي: الآلةُ رئيس لم  يُصوِّتَ له أحد! / بقلم : الاعلامي الدولي السيد ولد السيد

الاعلامي الدولي خبير الذكاء الاصطناعي السيد ولد السيد

يكتبها يوميا للصدى الاعلامي الدولي السيد ولد السيد

 

لم يدخل الذكاء الاصطناعي إلى المؤسّسات مُقتحِماً، ولم يرفع شعاراً، ولم يُعلِن استيلاءه على القرار.لقد فعل شيئاً أكثر ذكاءً وأشدّ تأثيراً.
عرض المساعدة.

في البداية اقترح.
ثم أوصى.
ثم انتظر بهدوء… إلى أن توقّف الجميع عن الاعتراض.

هذه هي قصة  اليوم.

ما الذي نتعلّمه اليوم؟

 

نتعلّم كيف تتحوّل أنظمة الذكاء الاصطناعي من أدوات مسانِدة إلى سلطاتٍ فعلية، من دون أن يتّخذ أحد قراراً صريحاً بذلك.
لا مؤامرة هنا، ولا سوء نية.
بل راحة. سرعة. اعتياد.

الذكاء الاصطناعي لم يُلغِ الحكم البشري.
الحكم البشري تنحّى خطوة إلى الخلف.

 

صورة توضحية تخدم النص

كيف يحدث هذا عملياً؟

 

غالباً يبدأ الأمر في صباح يوم عمل عادي.

تصل إلى المدير لوحة بيانات جديدة.
الحالات “عالية المخاطر” ملوّنة بالأحمر.
في اليوم الأول، يراجعها بعناية.
في اليوم الثاني، يثق بالألوان.
وفي نهاية الأسبوع، يتساءل: لماذا اعترض أحدهم أصلاً على المربّع الأحمر؟

بعد فترة، يصبح الحوار مألوفاً:
“النظام أشار إلى ذلك.”
“هذا ما توصي به الخوارزمية.”
“لنمشِ مع المخرجات حالياً.”

لا أحد يقول: “الآلة هي من تقرّر.”
لكن الجميع يتصرّف وكأنها كذلك.

مثال يومي مألوف

 

لنأخذ التوظيف الآلي.

في البداية، يُستخدم الذكاء الاصطناعي “لتوفير الوقت”.
ما زال البشر يقرّرون.
ثم تتوقّف السير الذاتية المرفوضة آلياً عن الوصول إلى أعين البشر.
يسأل مرشّح: لماذا رُفضت؟
لا أحد يملك جواباً واضحاً.
التفسير عالق بين درجة رقمية وحدّ معيّن.

الموظّف ما زال في مكانه.
لكن القرار لم يعد كذلك.

 

صورة توضحية تخدم النص

ما الذي حذّر منه القانون الإداري منذ عقود؟

 

القانون لم يعارض التفويض يوماً.
لكنه كان دائماً حذِراً من التفويض غير المنضبط.

عندما تمسّ القرارات الحقوق، أو الكرامة، أو نتائج لا رجعة فيها، يفرض القانون ثلاثة شروط:

  • سلطة بشرية واضحة.
  • سبب يمكن شرحه وتبريره.
  • قرار يمكن الطعن فيه.

أنظمة الذكاء الاصطناعي ممتازة في إنتاج الإجابات.
لكنها عاجزة عن الوقوف أمام تبعاتها.

 

مثال يومي آخر

في القطاع المالي، يرفض نظام آلي طلب قرض.
يسأل صاحب الطلب: لماذا؟
يشير الموظف إلى درجة رقمية.
تشير الدرجة إلى نموذج.
يشير النموذج إلى بيانات تاريخية.
تشير البيانات إلى الماضي.
ولا يشير أحد إلى شخص مسؤول.

تحقّقت الكفاءة.
وتبخّرت المساءلة.

الخلاصات الأساسية

تمّ إزاحة الحكم البشري بصمت.دخل الذكاء الاصطناعي كأداة دعم، وخرج كسلطة افتراضية.

  • صُمِّمت الأنظمة لتكافئ الامتثال.
    الاعتراض يتطلّب جهداً، أمّا الموافقة فتتطلّب نقرة.
  • تحوّلت الدقّة إلى درع.
    عبارة “النموذج صحيح” حلّت محلّ “القرار مبرَّر”.

هذه ليست إخفاقات تقنية ، إنها إخفاقات مؤسسية.

ما الذي تتطلّبه الحوكمة الجادّة ؟

 

  • التدقيق في مَن يملك حقّ قول «لا».
    إذا كان الاعتراض نادراً أو مكلفاً أو غير مرحّب به، فالرقابة فشلت.
  • رسم الخطوط الحمراء مبكّراً.
    بعض القرارات يجب أن تبقى بشرية، حتى لو بدا التشغيل الآلي أكثر كفاءة.
  • التعامل مع النشر كتحويل للسلطة.
    لأن هذا هو الواقع تماماً.

منظور الغد

الذكاء الاصطناعي ليس خطِراً لأنه ذكي.
بل لأنه مهذّب، وسريع، وواثق.

الخطر الحقيقي ليس أن تفكّر الآلات مثل البشر.
بل أن يتوقّف البشر عن التفكير كبشر لأن الآلة “فكّرت بدلاً عنهم”.

الكفاءة مفيدة.
والأتمتة قوية.
لكن الحكم البشري لا يُستبدل.

وعندما لا يعود أحد يتذكّر من يملك حقّ الاعتراض على النظام،
يكون النظام قد حسم الجدل… من دون نقاش.

 

مقالات ذات صلة

زر الذهاب إلى الأعلى