گوناگون

ردپای هوش مصنوعی در تحلیل اطلاعات نظامی و شناسایی اهداف در ایران

ردپای هوش مصنوعی در تحلیل اطلاعات نظامی و  شناسایی اهداف در ایران

برخی گزارش‌ها نشان می‌دهند که فناوری‌های هوش مصنوعی شرکت آنتروپیک پیش‌تر در تحلیل اطلاعات نظامی و حتی شناسایی اهداف در ایران مورد استفاده قرار گرفته‌اند، هرچند این شرکت اجازه استفاده از محصولاتش در سلاح‌های کاملا اتوماتیک را نداده بود.

  به گزارش پارسینه به نقل از اقتصادنیوز، در روزهای اخیر، مقابل دفتر مرکزی شرکت OpenAI در سان‌فرانسیسکو، گروه کوچکی از معترضان با گچ‌های رنگی روی پیاده‌رو این پیام را نوشتند: «از آزادی دفاع کنید، نظارت جمعی را متوقف کنید، و قرارداد را تغییر دهید.»

 اعتراض این گروه، به توافق تازه این شرکت با وزارت دفاع آمریکا بود؛ قراردادی که به موجب آن، از فناوری هوش مصنوعی در محیط‌های محرمانه نظامی استفاده خواهد شد.

 

هشدار کارشناسان حقوقی

متیو ونگ در آتلانتیک نوشت: به گفته منتقدان، این همکاری می‌تواند در نهایت به استفاده از مدل‌های هوش مصنوعی چت جی پی تی در حوزه‌هایی مانند جمع‌آوری اطلاعات، تحلیل داده‌های گسترده و حتی تصمیم‌گیری‌های مرتبط با جنگ منجر شود. همین مسئله باعث شده تا برخی کارشناسان حقوقی نسبت به پیامدهای آن هشدار دهند.

 

وعده وجود برخی از خط قرمزها

مدیرعامل اوپن ای آی، سم آلتمن، در یادداشتی محرمانه که برای کارکنان ارسال کرده بود اعلام کرد که شرکت قصد دارد تا خطوط قرمز مشخصی را برای این همکاری ها تعیین کند. به گفته آلتمن، هدف این محدودیت‌ها جلوگیری از دو مورد خاص است. نخست نظارت گسترده داخلی بر شهروندان آمریکایی، و دوم استفاده از سلاح‌های کاملا خودکار مرگبار.

این محدودیت‌ها شباهت زیادی به شروطی که پیش‌تر شرکت آنتروپیک، در همکاری با پنتاگون مطرح کرده بود دارد. همان شروطی که درنهایت باعث تنش میان این شرکت و دولت شد. در نهایت وزیر دفاع آمریکا، پیت هگست، این شرکت را تهدیدی برای زنجیره تأمین اعلام کرد؛ تصمیمی که عملا استفاده از فناوری‌های این شرکت در پروژه‌های نظامی را محدود کرد.

همین موضوع باعث شده تا این سوال برای برخی تحلیلگران پیش بیاید که آیا OpenAI شرایط خاصی را که پیشتر رقیب او حاضر به قبول آن نبود، پذیرفته است؟

نگرانی افکار عمومی از نظارت جمعی

در این میان، این شرکت بخشی از متن قرارداد خود با پنتاگون را منتشر کرده است؛ اما کارشناسان حقوقی معتقدند که همین بخش‌ها نیز ابهامات زیادی دارند. در یکی از بندهای قرارداد آمده است که سیستم هوش مصنوعی می‌تواند برای تمامی کاربردهای قانونی استفاده شود.

این عبارت ساده، در عمل دامنه بسیار گسترده‌ای دارد. به گفته برخی متخصصان، قوانین موجود در آمریکا هنوز امکان شکل‌هایی از نظارت گسترده را فراهم می‌کند.

برای مثال در قرارداد به قوانین اطلاعاتی آمریکا، از جمله قانون نظارت بر اطلاعات خارجی مصوب 1978 اشاره شده است. این قانون در گذشته به نهادهای اطلاعاتی اجازه می داد تا داده‌هایی مانند تماس‌های بین‌المللی یا داده‌های خریداری‌شده از شرکت‌های خصوصی را جمع‌آوری و تحلیل کند.

ورود هوش مصنوعی مولد به این حوزه می‌تواند تحلیل چنین داده‌هایی را بسیار سریع‌تر و دقیق‌تر انجام داده و تصویری گسترده را از رفتار و ارتباطات افراد نشان بدهد. تصویری که بسیاری آن را نوعی نظارت جمعی تلقی می کنند.

شناسایی اهداف در ایران

نگرانی دیگر به کاربرد نظامی مستقیم این فناوری مربوط می‌شود. در متن قرارداد به یک دستورالعمل نظامی اشاره شده است.

اما این دستورالعمل سلاح‌های اتومات را ممنوع نمی‌کند؛ بلکه چارچوبی برای توسعه و استفاده از آن‌ها تعیین کرده است. به همین دلیل برخی کارشناسان معتقدند که این قرارداد می‌تواند در نهایت راهی را برای استفاده از فناوری‌های هوش مصنوعی در سامانه‌های تسلیحاتی پیشرفته فراهم کند.

البته برخی گزارش‌ها نشان می‌دهند که فناوری‌های هوش مصنوعی شرکت آنتروپیک پیش‌تر در تحلیل اطلاعات نظامی و حتی شناسایی اهداف در ایران مورد استفاده قرار گرفته‌اند، هرچند این شرکت اجازه استفاده از محصولاتش در سلاح‌های کاملا اتوماتیک را نداده بود.

اصلاح قرارداد برای کاهش نگرانی‌ها

پس از بالا گرفتن انتقادها، اوپن ای آی اعلام کرد که متن قرارداد را اصلاح کرده است. در نسخه جدید، تأکید شده است که سیستم هوش مصنوعی نباید عمدا برای نظارت داخلی بر شهروندان آمریکایی استفاده شود و حتی استفاده از داده‌های خریداری‌شده از شرکت‌ها برای ردیابی افراد نیز ممنوع است.

با این حال برخی کارشناسان می‌گویند واژه‌هایی مانند به عمد یا به‌طور مستقیم، همچنان ابهام زیادی داشته و ممکن است مورد سو استفاده قرار گیرد. برای مثال ممکن است در آینده جمع‌آوری داده‌ها با عنوان اقدامی غیرعمدی یا فرعی توجیه شود.

همچنین در متن قرارداد از اصطلاح «افراد و اتباع آمریکایی» استفاده شده که ممکن است شامل برخی مهاجران یا ساکنان غیر دائم نشود.

شرکت ها باید انتخاب کنند

اوپن ای آی اعلام کرده که علاوه بر قرارداد رسمی، یک بخش را به عنوان لایه ایمنی فنی نیز ایجاد خواهد کرد. این بخش قرار است تا بر نحوه استفاده از مدل‌های هوش مصنوعی نظارت داشته باشد. مهندسان شرکت نیز قرار است تا برای اطمینان حاصل شدن از رد نکردن خط قرمزها، در پروژه‌های مشترک با پنتاگون همکاری کنند.

با این حال، بسیاری از کارشناسان معتقدند که مسئله اصلی نه متن قرارداد، بلکه اعتماد است.اگر دولت و شرکت درباره مجاز بودن یک کاربرد اختلاف پیدا کنند، معمولاً دولت ابتدا اقدام می‌کند و بعداً اختلاف در دادگاه بررسی می‌شود.

از سوی دیگر، اقدام پنتاگون در کنار گذاشتن آنتروپیک نشان داد که در صورت اختلاف با شرکت‌های فناوری، دولت از اعمال فشار شدید ترسی ندارد. به همین دلیل، برخی تحلیلگران معتقدند که پیام این ماجرا برای شرکت‌های هوش مصنوعی کاملا روشن است: در همکاری با دولت، یا باید با شرایط آن کنار آمد، یا به کلی از این بازار کنار گذاشته می شوید.

 اکنون به نظر می‌رسد که اوپن ای آی، انتخاب خود را کرده است.

 

ارسال نظر

نمای روز

داغ

صفحه خبر - وب گردی

آخرین اخبار