اصول بنیادی هوش مصنوعی
ما همواره به توسعهی هوش مصنوعی که هم ایمن و هم قابل اعتماد باشد، متعهد هستیم. اکنون، مدلهای هوش مصنوعی مولد قدرتمند و قابل دسترسی، خطرات کوتاهمدت و وجودی هوش مصنوعی را برای عموم مردم آشکار کردهاند. با افزایش سرعت توسعهی هوش مصنوعی، سیاستگذاران و کارشناسان هوش مصنوعی در سراسر جهان به دنبال توسعهی چارچوبهای محافظ مشترک برای کمک به توسعهی آیندهی این فناوری هستند.
به عنوان یکی از بازیگران و رهبران زیستبوم هوش مصنوعی، شش اصل برای اعتمادپذیری و ایمنی هوش مصنوعی تعریف کردهایم. پیروی از این اصول از مراحل پژوهش تا اجرا و یا تجاریسازی به اطمینان از ایمن و قابل اعتماد بودن سیستمهای هوش مصنوعی کمک میکند.
ما معتقدیم که این اصول میتواند راهنمایی برای سازمانهای دیگر نیز باشد. اینها نقطهی شروعی برای سازمانها در ابتدای سفر هوش مصنوعیشان هستند.
با پذیرش این اصول، سازمانهایی که استراتژیها و سیاستهای هوش مصنوعی خود را توسعه میدهند، تعهدشان را به استفاده از قدرت هوش مصنوعی به عنوان ابزاری برای اهداف دموکراتیک و انسانی نشان خواهند داد.
ما تعهد قوی به این اصول را در سراسر زیستبوم هوش مصنوعی گسترش میدهیم تا اطمینان یابیم که همهی مشارکتکنندگان این زیستبوم، به توسعه و استقرار مسئولانهی هوش مصنوعی متعهد خواهند بود.
این اصول بر اساس مضامین بینالمللی جمعآوریشده از بخشهای مختلف ساخته شدهاند تا ارزشهای متخصصان هوش مصنوعی را در زیستبومِ نوآوریهای هوش مصنوعی شریف منعکس کند:
1. هوش مصنوعی باید به نفع انسان و حیات روی سیارهی زمین باشد.
ما متعهد به توسعهی هوش مصنوعی هستیم که باعث رشد فراگیر، توسعهی پایدار و رفاه جامعه شود. توسعه و استقرار مسئولانهی سیستمهای هوش مصنوعی باید دسترسی عادلانه به آنها را همراه با تأثیر مثبتشان بر نیروی کار، آموزش، رقابت بازار، محیط زیست و سایر حوزههای جامعه در نظر بگیرد. این تعهد مستلزم امتناع صریح از توسعهی هوش مصنوعی مضر مانند سیستمهای تسلیحاتی خودمختار مرگبار و روشهای دستکاری برای ایجاد تعامل، از جمله اجبار سیاسی است.
2. سیستمهای هوش مصنوعی باید طوری طراحی شوند که ارزشهای دموکراتیک را منعکس کنند.
ما متعهد به ایجاد حفاظهای مناسب در سیستمهای هوش مصنوعی هستیم تا اطمینان حاصل کنیم که آنها از حقوق بشر، حاکمیت قانون، برابری، تنوع، و شمولیت حمایت میکنند و به توسعهی جامعهای عادلانه و با دسترسی برابر کمک میکنند.
3. سیستمهای هوش مصنوعی باید منعکسکننده حریم خصوصی و منافع امنیتی افراد باشند.
ما اهمیت اساسی حریم خصوصی و امنیت را میشناسیم و متعهد هستیم اطمینان حاصل کنیم که سیستمهای هوش مصنوعی این ارزشها را به طور مناسب برای استفادههای مورد نظر خود منعکس میکنند.
4. سیستمهای هوش مصنوعی باید در طول چرخهی عمرشان مستحکم، ایمن و امن باقی بمانند.
میدانیم که حفظ سیستمهای هوش مصنوعی ایمن و قابل اعتماد مستلزم ارزیابی و مدیریت مستمر خطرات آنها است. این به معنای اطمینان از اجرای مسئولیت در سراسر زنجیرهی ارزش در طول چرخه حیات یک سیستم هوش مصنوعی است.
5. نظارت بر سیستم هوش مصنوعی باید شامل افشای مسئولانه باشد.
ما میدانیم که شهروندان و مصرفکنندگان باید بتوانند نتایج مبتنی بر هوش مصنوعی را درک کرده و آنها را به چالش بکشند. این امر مستلزم شفافیت و افشای اطلاعات مربوط به سیستمهای هوش مصنوعی – و پشتیبانی از سواد هوش مصنوعی – برای همهی ذینفعان است.
6. سازمانها باید پاسخگو باشند.
ما تشخیص دادهایم که سازمانها در طول چرخهی عمر سیستمهای هوش مصنوعی که بر اساس این اصول مستقر میکنند یا عملیاتی میکنند، باید پاسخگو باشند و تطابق با قوانین و چارچوبهای نظارتی ضروری است.