پیشنهاد پارسینه
وزارت دفاع آمریکا پیش نویس خط مشی‌های استفاده اخلاقی از هوش مصنوعی را تدوین کرده تا استفاده از این سیستم‌ها قاعده‌مند شده و از سرکشی آن‌ها جلوگیری شود.
۱۲ آبان ۱۳۹۸ - ۱۶:۳۰
۰
با توجه به اینکه استفاده از هوش مصنوعی برای تولید انواع تسلیحات می‌تواند به ابداع سلاح‌های مرگباری منجر شود که خارج از کنترل انسان دست به کشتار‌های مرگبار و بی ضابطه بزنند، برخی کشور‌های جهان در تلاش هستند تا قوانینی را برای استفاده اخلاقی از هوش مصنوعی در صحنه‌های نبرد وضع کنند و پنتاگون هم در این زمینه وارد عمل شد.

در همین راستا وزارت دفاع آمریکا، پیش نویس دستورالعملی را با موضوع اخلاق هوش مصنوعی به نگارش درآورده که کنترل و مدیریت این فناوری نوظهور را تسهیل می‌کند. در این دستورالعمل به مسؤولیت‌های انسان‌ها برای کنترل هوش مصنوعی اشاره شده و پیشنهاد‌هایی برای مهار آن در حین حفظ کارآیی و قابلیت‌های خاص هوش مصنوعی ارائه شده است.

در بخشی از این پیش نویس تصریح شده الگوریتم‌های هوش مصنوعی باید به گونه‌ای تدوین شوند که از رفتار متعصبانه ناخواسته محصولات مبتنی بر هوش مصنوعی جلوگیری شود و جلوی نژادپرستی یا رفتار جنسیت زده آن‌ها گرفته شود، همچنین نباید محصولات هوش مصنوعی به گونه‌ای طراحی شوند که با مردم مختلف به دلایل گوناگون ناعادلانه رفتار شود، همچنین ارتش آمریکا باید تضمین کند که علاوه بر کد‌های برنامه نویسی، منابع داده آن هم بی طرف و بدون غرض ورزی باقی بمانند تا از سلاح‌های هوش مصنوعی برای کشتار طیف‌ها و گروه‌هایی خاص از غیرنظامیان سواستفاده نشود.

در ادامه این پیش نویس چنین آمده که هوش مصنوعی باید به گونه‌ای قابل مدیریت و کنترل طراحی شود تا اگر از آن برای وارد آوردن آسیب‌های غیرضروری سواستفاده شد، امکان متوقف کردن این روند وجود داشته باشد. همچنین باید امکان کنترل محصولات هوش مصنوعی توسط اپراتور انسانی و با استفاده از ابزار یا سوئیچ خاص وجود داشته باشد.
50
پــنــجــره
ارسال نظر
50
نمای روز
50
50
50
50
50
آخرین اخبار
50
سداد
شفا دارو