توصیهنامه یونسکو در مورد اخلاق هوش مصنوعی که در نوامبر ۲۰۲۱ به اتفاق آرا تصویب شد، به عنوان نخستین استاندارد جهانی از این دست، چارچوبی اخلاقی جامع برای تمامی ۱۹۴ کشور عضو ارائه میدهد. این توافق تاریخی فراتر از آرمانهای مبهم حرکت کرده و نقشهای عملی برای بهرهگیری از مزایای هوش مصنوعی و در عین حال کاهش ریسکهای آن، از سوگیری الگوریتمی تا تخریب محیط زیست، ارائه میکند. این سند نشاندهنده تعهدی جمعی برای اطمینان از این است که پیشرفت فناوری به بهای کرامت انسانی یا سلامت سیاره تمام نشود.
با تفسیر گسترده هوش مصنوعی به عنوان سیستمهایی که دادهها را به شیوهای شبههوشمند پردازش میکنند، این چارچوب پویا و آیندهنگر باقی میماند و از دام تعاریف محدودی که به سرعت منسوخ میشوند، اجتناب میکند. این گستره پیشبینانه تضمین میکند که توصیهنامه میتواند سیاستگذاری را در میان تغییرات سریع فناوری هدایت کند و آن را به سندی زنده برای چشماندازی دیجیتال در حال تکامل مداوم تبدیل مینماید.
در قلب این توصیهنامه، چهار ارزش محوری قرار دارد: احترام، حمایت و ارتقای حقوق بشر و آزادیهای اساسی؛ تقویت جوامع صلحآمیز، عادلانه و به هم پیوسته؛ تضمین تنوع و فراگیری؛ و شکوفایی محیط زیست و اکوسیستم. اینها صرفاً آرزو نیستند، بلکه سنگ بنایی هستند که تمامی اصول بعدی بر آن استوار شدهاند.
شفافیت، انصاف و نظارت انسانی از مفاهیم انتزاعی به ضرورتهای عملیاتی ارتقا یافتهاند. این چارچوب اصرار دارد که سیستمهای هوش مصنوعی باید قابل حسابرسی و ردیابی باشند و مکانیسمهایی برای ارزیابی اثر و انجام مراقبتهای لازم داشته باشند. مهمتر از همه، این چارچوب الزام میکند که مسئولیت و پاسخگویی نهایی انسانی هرگز نباید توسط فرآیندهای خودکار جابجا شود و عاملیت انسانی در عصر ماشینهای هوشمند حفظ گردد.
توصیهنامه موضعی صریح اتخاذ میکند: رویکرد مبتنی بر حقوق بشر قابل مذاکره نیست. این سند صراحتاً بیان میکند که حقوق بشر مشمول معامله نیست و باید در مرکز تمامی چارچوبهای نظارتی هوش مصنوعی قرار گیرد. این امر شامل ارزیابیهای ریسک دقیق برای جلوگیری از آسیبها و تعهدی است که استفاده از هوش مصنوعی نباید فراتر از آنچه برای دستیابی به هدفی مشروع ضروری است، برود.
حریم خصوصی در سراسر چرخه عمر هوش مصنوعی به عنوان حقی غیرقابل نقض دفاع شده است. این چارچوب خواستار تضمینهای قوی حفاظت از داده و به چالش کشیدن نظارت فراگیر است و از قوانین قویتر رضایت حمایت میکند که در آن افراد کنترل و درک چگونگی استفاده از دادههای خود را حفظ میکنند. این چارچوب مدل جدیدی از حکمرانی داده را ترویج میکند که نمایندگی و کیفیت را تضمین میکند، امری که برای توسعه الگوریتمهای عادلانه اساسی است.
آنچه واقعاً این چارچوب را متمایز میکند، ترجمه ارزشهای سطح بالا به اقدامات ملموس است. این سند یازده حوزه اقدام سیاستی مشخص را ترسیم میکند که کشورهای عضو میتوانند تلاشهای خود را در آنها متمرکز کنند. این عرصهها شامل حکمرانی داده، محیط زیست و اکوسیستمها، برابری جنسیتی، آموزش و پژوهش، و سلامت و رفاه اجتماعی میشود.
به عنوان مثال، در سیاست محیط زیست، فناوریهای هوش مصنوعی باید در برابر اهداف پایداری، از جمله اهداف توسعه پایدار سازمان ملل، ارزیابی شوند. در آموزش، تمرکز بر ترویج درک عمومی از طریق سواد دیجیتال و آموزش اخلاق هوش مصنوعی است. این رویکرد ساختاریافته تضمین میکند که راهنمایی اخلاقی در هر بخشی که هوش مصنوعی تأثیر دارد، نفوذ کند.
اصول بدون ابزارهای عملی برای اجرا ناتوان هستند. یونسکو این موضوع را از طریق دو سازوکار نوآورانه مورد توجه قرار میدهد: روش ارزیابی آمادگی و ارزیابی اثر اخلاقی. روش ارزیابی آمادگی به کشورهای عضو کمک میکند تا آمادگی خود برای پذیرش توصیهنامه را ارزیابی کرده، شکافها را شناسایی و پشتیبانی ظرفیتسازی را سفارشی کنند.
ارزیابی اثر اخلاقی، از سوی دیگر، فرآیندی ساختاریافته برای تیمهای پروژه است. این ابزار همکاری با جوامع متأثر را برای شناسایی، ارزیابی و کاهش آسیبهای بالقوه یک سیستم هوش مصنوعی قبل از استقرار آن تسهیل میکند. این ابزار تجسمکننده روحیه پیشگیرانه و احتیاطی چارچوب است و اخلاق را از یک حسابرسی گذشتهنگر به بخشی جداییناپذیر از فرآیند طراحی تبدیل میکند.
فراگیری یک افزوده نیست، بلکه رشتهای مرکزی است. این توصیهنامه به طور فعال عدالت اجتماعی، انصاف و عدم تبعیض را ترویج میکند و اطمینان میدهد که مزایای هوش مصنوعی برای همه قابل دسترس است. این امر از طریق ابتکارات مشخصی مانند پلتفرم تخصصی زنان برای اخلاق هوش مصنوعی عملیاتی میشود که هدف آن پیشبرد برابری جنسیتی با تضمین حضور برابر زنان در طراحی و استقرار هوش مصنوعی است.
علاوه بر این، شورای کسبوکار برای اخلاق هوش مصنوعی که توسط شرکتهایی مانند مایکروسافت و تلفونیکا به صورت مشترک رهبری میشود، به عنوان یک پلتفرم مشارکتی در آمریکای لاتین عمل میکند. این شورا شیوههای اخلاقی را در صنعت تقویت کرده، بر ظرفیتسازی کار میکند و به تنظیم مقررات هوشمند منطقهای کمک مینماید و نشان میدهد که مشارکت چندذینفعی برای پذیرش در دنیای واقعی چقدر حیاتی است.
شاید میراث ماندگار این توصیهنامه، نقش آن به عنوان محرکی برای یک تغییر فرهنگی گستردهتر باشد. این سند خواستار توسعه و تطبیق چارچوبهای نظارتی برای تضمین پاسخگویی و مسئولیت روشن در قبال نتایج هوش مصنوعی در سراسر چرخه عمر آن است. هنگامی که آسیبی رخ میدهد، شفافیت کامل الگوریتم باید تضمین شود، که توسط اصول نظارت انسانی پشتیبانی میگردد.
همانطور که هوش مصنوعی به بازشکلدهی جوامع ادامه میدهد، این چارچوب محافظهای ضروری را فراهم میکند. این چارچوب گفتوگوی جهانی را از استانداردهای فنی منزوی به یک اکوسیستم کلنگر و مبتنی بر حقوق منتقل میکند. با تزریق اخلاق به هر مرحله از چرخه عمر هوش مصنوعی—از پژوهش و توسعه تا استقرار و نظارت—یونسکو مسیری را ترسیم کرده است که در آن نوآوری و انسانیت نه در تنش، بلکه همگام با یکدیگر پیش میروند و تضمین میکنند که فناوری به عنوان نیرویی برای پیشرفت فراگیر و پایدار عمل کند.