پرش به محتوا

اصول بنیادی هوش مصنوعی

ما همواره به توسعه‌ی هوش مصنوعی که هم ایمن و هم قابل اعتماد باشد، متعهد هستیم. اکنون، مدل‌های هوش مصنوعی مولد قدرتمند و قابل دسترسی، خطرات کوتاه‌مدت و وجودی هوش مصنوعی را برای عموم مردم آشکار کرده‌اند. با افزایش سرعت توسعه‌ی هوش مصنوعی، سیاستگذاران و کارشناسان هوش مصنوعی در سراسر جهان به دنبال توسعه‌ی چارچوب‌های محافظ مشترک برای کمک به توسعه‌ی آینده‌ی این فناوری هستند.

به عنوان یکی از بازیگران و رهبران زیست‌بوم هوش مصنوعی، شش اصل برای اعتمادپذیری و ایمنی هوش مصنوعی تعریف کرده‌ایم. پیروی از این اصول از مراحل پژوهش تا اجرا و یا تجاری‌سازی به اطمینان از ایمن و قابل اعتماد بودن سیستم‌های هوش مصنوعی کمک می‌کند.

ما معتقدیم که این اصول می‌تواند راهنمایی برای سازمان‌های دیگر نیز باشد. این‌ها نقطه‌ی شروعی برای سازمان‌ها در ابتدای سفر هوش مصنوعی‌شان هستند.

با پذیرش این اصول، سازمان‌هایی که استراتژی‌ها و سیاست‌های هوش مصنوعی خود را توسعه می‌دهند، تعهدشان را به استفاده از قدرت هوش مصنوعی به عنوان ابزاری برای اهداف دموکراتیک و انسانی نشان خواهند داد.

ما تعهد قوی به این اصول را در سراسر زیست‌بوم هوش مصنوعی گسترش می‌دهیم تا اطمینان یابیم که همه‌ی مشارکت‌کنندگان این زیست‌بوم، به توسعه و استقرار مسئولانه‌ی هوش مصنوعی متعهد خواهند بود.

این اصول بر اساس مضامین بین‌المللی جمع‌آوری‌شده از بخش‌های مختلف ساخته شده‌اند تا ارزش‌های متخصصان هوش مصنوعی را در زیست‌بومِ نوآوری‌های هوش مصنوعی شریف منعکس کند:

1. هوش مصنوعی باید به نفع انسان و حیات روی سیاره‌ی زمین باشد.

ما متعهد به توسعه‌ی هوش مصنوعی هستیم که باعث رشد فراگیر، توسعه‌ی پایدار و رفاه جامعه شود. توسعه و استقرار مسئولانه‌ی سیستم‌های هوش مصنوعی باید دسترسی عادلانه به آن‌ها را همراه با تأثیر مثبت‌شان بر نیروی کار، آموزش، رقابت بازار، محیط زیست و سایر حوزه‌های جامعه در نظر بگیرد. این تعهد مستلزم امتناع صریح از توسعه‌ی هوش مصنوعی مضر مانند سیستم‌های تسلیحاتی خودمختار مرگبار و روش‌های دستکاری برای ایجاد تعامل، از جمله اجبار سیاسی است.

2. سیستم‌های هوش مصنوعی باید طوری طراحی شوند که ارزش‌های دموکراتیک را منعکس کنند.

ما متعهد به ایجاد حفاظ‌های مناسب در سیستم‌های هوش مصنوعی هستیم تا اطمینان حاصل کنیم که آن‌ها از حقوق بشر، حاکمیت قانون، برابری، تنوع، و شمولیت حمایت می‌کنند و به توسعه‌ی جامعه‌ای عادلانه و با دسترسی برابر کمک می‌کنند.

3. سیستم‌های هوش مصنوعی باید منعکس‌کننده حریم خصوصی و منافع امنیتی افراد باشند.

ما اهمیت اساسی حریم خصوصی و امنیت را می‌شناسیم و متعهد هستیم اطمینان حاصل کنیم که سیستم‌های هوش مصنوعی این ارزش‌ها را به طور مناسب برای استفاده‌های مورد نظر خود منعکس می‌کنند.

4. سیستم‌های هوش مصنوعی باید در طول چرخه‌ی عمرشان مستحکم، ایمن و امن باقی بمانند.

می‌دانیم که حفظ سیستم‌های هوش مصنوعی ایمن و قابل اعتماد مستلزم ارزیابی و مدیریت مستمر خطرات آن‌ها است. این به معنای اطمینان از اجرای مسئولیت در سراسر زنجیره‌ی ارزش در طول چرخه حیات یک سیستم هوش مصنوعی است.

5. نظارت بر سیستم هوش مصنوعی باید شامل افشای مسئولانه باشد.

ما می‌دانیم که شهروندان و مصرف‌کنندگان باید بتوانند نتایج مبتنی بر هوش مصنوعی را درک کرده و آن‌ها را به چالش بکشند. این امر مستلزم شفافیت و افشای اطلاعات مربوط به سیستم‌های هوش مصنوعی – و پشتیبانی از سواد هوش مصنوعی – برای همه‌ی ذینفعان است.

6. سازمان‌ها باید پاسخگو باشند.

ما تشخیص داده‌ایم که سازمان‌ها در طول چرخه‌ی عمر سیستم‌های هوش مصنوعی که بر اساس این اصول مستقر می‌کنند یا عملیاتی می‌کنند، باید پاسخگو باشند و تطابق با قوانین و چارچوب‌های نظارتی ضروری است.