پنتاگون تصویب اصول اخلاقی برای استفاده از هوش مصنوعی در جنگ

4 دقیقه پیش

پنتاگون اتخاذ جدید اصول اخلاقی آن را به عنوان آماده برای سرعت بخشیدن به استفاده از آن از هوش مصنوعی و فن آوری در میدان جنگ است.

این اصول جدید برای تماس مردم به “ورزش مناسب سطح قضاوت و مراقبت” در هنگام اعزام و با استفاده از هوش مصنوعی سیستم های مانند کسانی که اسکن تصاویر هوایی به دنبال اهداف.

آنها همچنین می گویند تصمیم گیری ساخته شده توسط سیستم های خودکار باید “قابل تعقیب” و “رام” به معنی “وجود دارد یک راه برای خلاص و یا غیر فعال کردن” آنها را اگر آنها در حال نشان دادن ناخواسته رفتار گفت: نیروی هوایی سرهنگ ژنرال جک Shanahan مدیر پنتاگون مشترک هوش مصنوعی مرکز.

پنتاگون فشار به سرعت AI قابلیت های دارای سوخت یک مبارزه بین شرکت های فن آوری بیش از 10 میلیارد دلار cloud computing قرارداد شناخته شده به عنوان مشترک شرکت دفاع زیرساخت یا جدی. مایکروسافت برنده این قرارداد در ماه اکتبر شده است قادر به گرفتن آغاز شده در 10 سال پروژه به دلیل آمازون شکایت کرد پنتاگون با این استدلال که رئیس جمهور مغلوب ساختن پیشی جستن نفرت و بیزاری نسبت به آمازون و مدیر عامل شرکت جف بزوس صدمه دیده این شرکت شانس در برنده شدن در مناقصه.

موجود 2012 نظامی بخشنامه نیاز انسان به تواند در کنترل خودکار سلاح نیست آدرس گسترده تر با استفاده از هوش مصنوعی. جدید ایالات متحده در اصول به معنای راهنمای هر دو رزمی و غیر رزمی برنامه های کاربردی از هوش-جمع آوری و نظارت بر عملیات به پیش بینی مشکلات نگهداری در هواپیما و یا کشتی.

رویکرد مشخص شده روز شنبه به شرح زیر توصیه های ساخته شده در سال گذشته توسط دفاع نوآوری هیئت مدیره یک گروه به رهبری سابق مدیر عامل گوگل اریک اشمیت.

در حالی که پنتاگون اذعان کرد که هوش مصنوعی “افزایش جدید اخلاقی ابهامات و خطرات” جدید اصول سقوط کوتاه از قوی تر محدودیت های مورد علاقه طرفداران کنترل سلاح.

“من نگران آن است که اصول یک بیت از یک اخلاق-شستشو پروژه گفت:” لوسی Suchman یک انسان شناس که مطالعات نقش هوش مصنوعی در جنگ است. “کلمه” مناسب ” باز است برای بسیاری از تفاسیر.”

Shanahan گفت: اصول عمدا گسترده ای برای جلوگیری از جوراب توری, جوراب ارتش آمریکا با محدودیت های خاص است که می تواند تبدیل به منسوخ شده است.

“تکنولوژی سازگار. تکنولوژی تکامل می یابد,” او گفت:.

پنتاگون موانع در آن هوش مصنوعی تلاش در سال 2018 پس از اعتراضات داخلی در گوگل led تکنولوژی شرکت به رها کردن نظامی پروژه Maven که با استفاده از الگوریتم های به تفسیر تصاویر هوایی از مناطق جنگی. دیگر شرکت ها را پس از پر خلاء. Shanahan گفت: اصول جدید در حال کمک به دست آوردن مجدد حمایت از صنعت فن آوری که در آن “وجود دارد یک تشنگی برای داشتن این بحث است.”

“گاهی اوقات من فکر می کنم احساس وحشت و نگرانی است که کمی به کرات اما ما باید افرادی که نگرانی های جدی در مورد کار با وزارت دفاع,” او گفت:.

Shanahan گفت: ارشاد همچنین کمک می کند تا امن آمریکایی مزیت فن آوری به عنوان چین و روسیه دنبال نظامی هوش مصنوعی با توجه به نگرانی های اخلاقی.

دانشگاه ریچموند استاد حقوق ربکا Crootof گفت: اتخاذ اصول اولین گام خوب است اما نظامی نیاز به آن را نشان می دهد می تواند انتقادی ارزیابی داده های بزرگ احداث مخازن مورد استفاده توسط هوش مصنوعی سیستم و همچنین امنیت سایبر خطرات.

Crootof گفت: او همچنین امیدوار است که ایالات متحده اقدام کمک می کند تا ایجاد هنجارهای بین المللی در اطراف نظامی با استفاده از هوش مصنوعی.

“اگر آمریکا دیده می شود به مصرف AI هنجارهای اخلاقی به طور جدی به طور پیش فرض آنها تبدیل به یک موضوع جدی” او گفت:.

tinyurlis.gdv.gdv.htclck.ruulvis.netshrtco.de

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>