اعتُمدت توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي بالإجماع في نوفمبر 2021، لتكون أول معيار عالمي من نوعه على الإطلاق، حيث تقدم إطاراً أخلاقياً شاملاً لجميع الدول الأعضاء البالغ عددها 194 دولة. تنتقل هذه الاتفاقية التاريخية إلى ما هو أبعد من المُثل الفضفاضة، مقدمةً مخططاً عملياً لاستغلال فوائد الذكاء الاصطناعي مع التخفيف من مخاطره، بدءاً من التحيز الخوارزمي وصولاً إلى التدهور البيئي. إنها تمثل التزاماً جماعياً لضمان ألا يأتي التقدم التكنولوجي على حساب الكرامة الإنسانية أو صحة الكوكب.
بتفسير الذكاء الاصطناعي على نطاق واسع كنظم تعالج البيانات بطريقة تشبه الذكاء، يظل الإطار ديناميكياً ومستعداً للمستقبل، متجنباً مخاطر التعريفات الضيقة التي قد تصبح قديمة بسرعة. يضمن هذا النطاق التطلعي أن التوصية يمكنها توجيه السياسات عبر التحولات التكنولوجية السريعة، مما يجعلها وثيقة حية لمشهد رقمي يتطور باستمرار.
في صميمها، ترتكز التوصية على أربع قيم أساسية: احترام وحماية وتعزيز حقوق الإنسان والحريات الأساسية؛ تعزيز المجتمعات السلمية والعادلة والمترابطة؛ ضمان التنوع والشمول؛ وازدهار البيئة والنظام البيئي. هذه ليست مجرد تطلعات، بل هي الأساس الذي تُبنى عليه جميع المبادئ اللاحقة.
تُرفع الشفافية والإنصاف والرقابة البشرية من مفاهيم مجردة إلى ضرورات تشغيلية. يصر الإطار على أن تكون أنظمة الذكاء الاصطناعي قابلة للتدقيق والتتبع، مع آليات لتقييم الأثر والعناية الواجبة. والأهم من ذلك، أنه يفرض ألا يتم استبدال المسؤولية والمساءلة البشرية النهائية أبداً بالعمليات الآلية، مما يحافظ على الوكالة البشرية في عصر الآلات الذكية.
تتخذ التوصية موقفاً لا لبس فيه: نهج حقوق الإنسان غير قابل للتفاوض. وتنص صراحةً على أن حقوق الإنسان ليست قابلة للمقايضة ويجب وضعها في مركز جميع الأطر التنظيمية للذكاء الاصطناعي. يتضمن ذلك إجراء تقييمات صارمة للمخاطر لمنع الأضرار والتزام بأن لا يتجاوز استخدام الذكاء الاصطناعي ما هو ضروري لتحقيق هدف مشروع.
يتم الدفاع عن الخصوصية كحق لا يُنتهك طوال دورة حياة الذكاء الاصطناعي. يدعو الإطار إلى ضمانات قوية لحماية البيانات ويتحدى المراقبة المنتشرة، داعياً إلى قواعد موافقة أقوى حيث يحتفظ الأفراد بالسيطرة والفهم لكيفية استخدام بياناتهم. ويعزز نموذجاً جديداً لحوكمة البيانات يضمن التمثيلية والجودة، وهو أمر أساسي لتطوير خوارزميات عادلة.
ما يميز هذا الإطار حقاً هو ترجمته للقيم عالية المستوى إلى إجراءات ملموسة. فهو يحدد أحد عشر مجالاً ملموساً للعمل السياسي يمكن للدول الأعضاء توجيه جهودها إليها. تشمل هذه المجالات حوكمة البيانات، والبيئة والنظم البيئية، والمساواة بين الجنسين، والتعليم والبحث، والصحة والرفاه الاجتماعي.
على سبيل المثال، في السياسة البيئية، يجب تقييم تقنيات الذكاء الاصطناعي مقابل أهداف الاستدامة، بما في ذلك أهداف الأمم المتحدة للتنمية المستدامة. وفي التعليم، يركز الاهتمام على تعزيز الفهم العام من خلال محو الأمية الرقمية وتدريب أخلاقيات الذكاء الاصطناعي. يضمن هذا النهج المنظم أن التوجيه الأخلاقي يتخلل كل قطاع يؤثر فيه الذكاء الاصطناعي.
المبادئ عديمة القوة بدون أدوات عملية للتنفيذ. تعالج اليونسكو هذا من خلال أداتين مبتكرتين: منهجية تقييم الجاهزية وتقييم الأثر الأخلاقي. تساعد منهجية تقييم الجاهزية الدول الأعضاء على تقييم استعدادها لاعتماد التوصية، وتحديد الفجوات وتخصيص دعم بناء القدرات.
من ناحية أخرى، فإن تقييم الأثر الأخلاقي هو عملية منظمة لفرق المشاريع. فهو يسهل التعاون مع المجتمعات المتأثرة لتحديد وتقييم والتخفيف من الأضرار المحتملة لنظام الذكاء الاصطناعي قبل نشره. تجسد هذه الأداة الروح الاستباقية والاحترازية للإطار، منتقلةً بالأخلاقيات من تدقيق بأثر رجعي إلى جزء لا يتجزأ من عملية التصميم.
الشمولية ليست إضافة بل هي خيط مركزي. تروج التوصية بنشاط للعدالة الاجتماعية والإنصاف وعدم التمييز، مما يضمن إتاحة فوائد الذكاء الاصطناعي للجميع. يتم تفعيل هذا من خلال مبادرات محددة مثل منصة الخبراء النساء من أجل الذكاء الاصطناعي الأخلاقي، التي تهدف إلى تعزيز المساواة بين الجنسين من خلال ضمان تمثيل النساء على قدم المساواة في تصميم ونشر الذكاء الاصطناعي.
علاوة على ذلك، فإن المجلس التجاري لأخلاقيات الذكاء الاصطناعي، الذي يشارك في رئاسته شركات مثل مايكروسوفت وتليفونيكا، يعمل كمنصة تعاونية في أمريكا اللاتينية. فهو يعزز الممارسات الأخلاقية داخل الصناعة، ويعمل على بناء القدرات ويساهم في وضع لوائح إقليمية ذكية، مما يوضح كيف أن إشراك أصحاب المصلحة المتعددين أمر بالغ الأهمية للتبني في العالم الحقيقي.
قد يكون الإرث الدائم لهذه التوصية هو دورها كمحفز لتحول ثقافي أوسع. فهي تدعو إلى تطوير وتكييف الأطر التنظيمية لضمان المساءلة والمسؤولية الواضحة عن نتائج الذكاء الاصطناعي طوال دورة حياتها. عند حدوث ضرر، يجب ضمان الشفافية الكاملة للخوارزمية، مدعومة بمبادئ الرقابة البشرية.
بينما يستمر الذكاء الاصطناعي في إعادة تشكيل المجتمعات، يوفر هذا الإطار الحواجز الأساسية. فهو ينقل الحوار العالمي من معايير تقنية معزولة إلى نظام بيئي شامل قائم على الحقوق. من خلال تضمين الأخلاقيات في كل مرحلة من دورة حياة الذكاء الاصطناعي - من البحث والتطوير إلى النشر والرقابة - رسمت اليونسكو مساراً يتقدم فيه الابتكار والإنسانية، ليس في توتر، بل في انسجام، مما يضمن أن تكون التكنولوجيا قوة للتقدم الشامل والمستدام.