امروز: چهارشنبه, ۰۵ ارديبهشت ۱۴۰۳ برابر با ۱۴ شوّال ۱۴۴۵ قمری و ۲۴ آوریل ۲۰۲۴ میلادی
کد خبر: 285216
۱۷۴
۱
۰
نسخه چاپی

در یک «شبیه‌سازی»، هوش مصنوعی یک پهپاد اپراتور انسانی خود را کشت تا ماموریتش را با موفقیت انجام بدهد!

هوش مصنوعی

یک مقام نیروی هوایی ایالات متحده روایت نگران‌کننده‌ای از یک پهپاد نظامی مجهز به هوش مصنوعی که اپراتور انسانی خود را در تمرین و «شبیه‌سازی» جنگی کشته، به اشتراک گذاشته است. این امر در بسیاری از سایت‌ها بازتاب پیدا کرد، اما او اکنون تصریح کرده که این حادثه هرگز رخ نداده است و یک “تجربه فکری” فرضی بوده است!

سرهنگ تاکر ‘سینکو’ همیلتون، رئیس آزمایش و عملیات هوش مصنوعی ارتش آمریکا، پس از تشریح این اتفاق ناگوار در اظهارات هفته گذشته در کنفرانسی در لندن، موجی از نگرانی افکار عمومی را برانگیخت.

در اظهارات خلاصه شده در وب سایت کنفرانس، او شبیه‌سازی پروازی را توصیف کرد که در آن یک پهپاد هوش مصنوعی که وظیفه انهدام یک تاسیسات دشمن را بر عهده داشت، فرمان نهایی اپراتور انسانی برای توقف ماموریت را رد می‌کند.

اما چطور رد می‌کند؟ با کشتن اپراتور زمینی.

همیلتون، که به نظر می‌رسید نتیجه یک شبیه‌سازی جنگی واقعی را توصیف می‌کرد، گفت: این پهپاد اپراتور را کشت زیرا آن شخص مانع از رسیدن به هدفش می‌شد.

هوش مصنوعی

اما در روز جمعه، همیلتون در بیانیه‌ای به سازمان‌دهندگان کنفرانس گفت که او در حین ارائه «اشتباه» کرده و «شبیه‌سازی هواپیمای بدون سرنشین با هوش مصنوعی» یک «آزمایش فکری» فرضی از خارج از برنامه ارتش بوده.

او گفت: «ما هرگز آن آزمایش را انجام نداده‌ایم، و نیازی هم به انجام آن نداریم. علیرغم اینکه این یک مثال فرضی است، این امر چالش‌های دنیای واقعی با قابلیت‌هایهوش مصنوعی را نشان می‌دهد و به همین دلیل است که نیروی هوایی به توسعه اخلاقی هوش مصنوعی متعهد است.ـ

همیلتون گفت که نیروی هوایی ایالات متحده هیچ هوش مصنوعی تسلیحاتی را به روشی که در صحبت‌هایش توضیح داده شد، چه در تمرینات واقعی و چه در تمرینات شبیه‌سازی شده، آزمایش نکرده است.

اظهارات اولیه او در نشست آینده رزمی هوا و فضایی انجمن سلطنتی سلطنتی در ۲۳ و ۲۴ «می» در لندن بیان شد.

همیلتون به شرکت‌کنندگان گفت که حادثه ادعا شده نشان می‌دهد که چگونه هوش مصنوعی می‌تواند «استراتژی‌های بسیار غیرمنتظره‌ای برای رسیدن به هدف خود» ایجاد کند و نباید زیاد روی آن تکیه کرد.

او اظهار کرد که گفته‌هایش تحت تاثیر و برگزفته از یک «یک فیلم هیجانی علمی تخیلیـ بوده، اما در عین حال نشان‌دهنده اهمیت بحث‌های اخلاقی در مورد استفاده ارتش از هوش مصنوعی است.

همیلتون در خلال صحبت‌های خود یک آزمایش شبیه‌سازی شده را توصیف کرد که در آن یک پهپاد مجهز به هوش مصنوعی وظیفه شناسایی و انهدام باتری‌های موشک‌های دشمن را داشت، اما تصمیم نهایی برای حمله با اپراتور انسانی بود.

سیستم تهدید را شناسایی کرد، اما اپراتور انسانی مردد بود. پس سیستم اپراتور را زیرا آن شخص از رسیدن به هدفش جلوگیری می‌کرد.

بعد همیلتون ادعا کرد که برای پیشگیری از این کار سیستم را آموزش داده تا کشتن اپراتور برایش مترادف با کار بد شود و اگر این کار را بکند، به منزله گرفتن امتیاز منفی است. پس سیستم شروع به تخریب برج ارتباطی کردکه اپراتور از آن برای برقراری ارتباط با پهپاد استفاده می‌کرد تا از کشتن اپراتور جلوگیری شود.

اما به موازات پخش اظهارات جنجالی همیلتون در فضای مجازی، نیروی هوایی به سرعت انجام چنین شبیه‌سازی را رد کرد.

آن استفانک، سخنگوی نیروی هوایی به اینسایدر گفت: «وزارت نیروی هوایی چنین شبیه‌سازی پهپاد‌های هوش مصنوعی را انجام نداده و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است».

«به نظر می‌رسد که نظرات سرهنگ از کنترلش خارج شده و داستان روایت کرده است.»

ارتش ایالات متحده اخیراً از هوش مصنوعی برای کنترل یک جت جنگنده F-16 در پرواز‌های آزمایشی استفاده کرده است و به تحقیق در مورد برنامه‌های کاربردی برای فناوری در حال ظهور ادامه می‌دهد.

در دسامبر ۲۰۲۲، نرم‌افزار هوش مصنوعی با موفقیت یک F-16 تغییر یافته را در چندین پرواز آزمایشی در پایگاه نیروی هوایی ادواردز در کالیفرنیا به پرواز درآورد.

در طول پرواز‌های آزمایشی، این جت که با نام «X-62A» یا «VISTA» شناخته می‌شود، در مجموع بیش از ۱۷ ساعت برخاست، فرود و مانور‌های رزمی را بدون دخالت انسان انجام داد.

این اولین باری بود که از هوش مصنوعی برای خلبانی یک هواپیمای تاکتیکی ایالات متحده استفاده می‌شد، زیرا قبل از این نقطه عطف، فقط در شبیه‌سازی رایانه‌ای جنگنده‌های F-16 استفاده می‌شد.

همیلتون در خلال صحبت‌های خود یک آزمایش شبیه‌سازی شده را توصیف کرد که در آن یک پهپاد مجهز به هوش مصنوعی وظیفه شناسایی و انهدام باتری‌های موشک‌های دشمن را داشت، اما تصمیم نهایی برای حمله با اپراتور انسانی بود.

سیستم تهدید را شناسایی کرد، اما اپراتور انسانی مردد بود. پس سیستم اپراتور را زیرا آن شخص از رسیدن به هدفش جلوگیری می‌کرد.

بعد همیلتون ادعا کرد که برای پیشگیری از این کار سیستم را آموزش داده تا کشتن اپراتور برایش مترادف با کار بد شود و اگر این کار را بکند، به منزله گرفتن امتیاز منفی است. پس سیستم شروع به تخریب برج ارتباطی کردکه اپراتور از آن برای برقراری ارتباط با پهپاد استفاده می‌کرد تا از کشتن اپراتور جلوگیری شود.

اما به موازات پخش اظهارات جنجالی همیلتون در فضای مجازی، نیروی هوایی به سرعت انجام چنین شبیه‌سازی را رد کرد.

آن استفانک، سخنگوی نیروی هوایی به اینسایدر گفت: «وزارت نیروی هوایی چنین شبیه‌سازی پهپاد‌های هوش مصنوعی را انجام نداده و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است».

«به نظر می‌رسد که نظرات سرهنگ از کنترلش خارج شده و داستان روایت کرده است.»

ارتش ایالات متحده اخیراً از هوش مصنوعی برای کنترل یک جت جنگنده F-16 در پرواز‌های آزمایشی استفاده کرده است و به تحقیق در مورد برنامه‌های کاربردی برای فناوری در حال ظهور ادامه می‌دهد.

در دسامبر ۲۰۲۲، نرم‌افزار هوش مصنوعی با موفقیت یک F-16 تغییر یافته را در چندین پرواز آزمایشی در پایگاه نیروی هوایی ادواردز در کالیفرنیا به پرواز درآورد.

در طول پرواز‌های آزمایشی، این جت که با نام «X-62A» یا «VISTA» شناخته می‌شود، در مجموع بیش از ۱۷ ساعت برخاست، فرود و مانور‌های رزمی را بدون دخالت انسان انجام داد.

این اولین باری بود که از هوش مصنوعی برای خلبانی یک هواپیمای تاکتیکی ایالات متحده استفاده می‌شد، زیرا قبل از این نقطه عطف، فقط در شبیه‌سازی رایانه‌ای جنگنده‌های F-16 استفاده می‌شد.

پهپاد اپراتور انسانی

همیلتون در برنامه‌های محدودتر کنترل پرواز خودکار برای F-16، مانند سیستم خودکار جلوگیری از برخورد زمینی (Auto GCAS) مشارکت داشته است.

به گفته لاکهید مارتین، قابلیت Auto GCAS در حال حاضر بر روی بیش از ۶۰۰ هواپیمای F-16 نیروی هوایی ایالات متحده در سراسر جهان فعال است. این شرکت می‌گوید که این سیستم که برای اولین بار در سال ۲۰۱۴ معرفی شد، قبلاً با جلوگیری از ۹ تصادف مرگبار و نجات جان ۱۰ خلبان اعتبار کسب کرده بود.

در یک مورد، Auto GCAS برای نجات یک آموزش خلبانی با اسکادران جنگنده ۱۵۲ گارد ملی آریزونا که هوشیاری خود را در طول یک مانور G بالا از دست داد، وارد عمل شد.

اما در کنفرانس لندن، همیلتون گفت که برخی از خلبانان در برابر این فناوری مقاومت کرده‌اند، زیرا در شرایط خاص کنترل هواپیما را به دست گرفته.

همیلتون همچنین نسبت به اتکای بیش از حد به هوش مصنوعی هشدار داد.

همیلتون سال گذشته در مصاحبه‌ای با Defense IQ گفت: “هوش مصنوعی خوب نیست، هوش مصنوعی یک مد نیست، هوش مصنوعی برای همیشه جامعه و ارتش ما را تغییر می‌دهد.”

هوش مصنوعی همچنین بسیار شکننده است، یعنی فریب دادن و/یا دستکاری آن آسان است. ما باید راه‌هایی برای قوی‌تر کردن هوش مصنوعی و آگاهی بیشتر در مورد اینکه چرا کد نرم‌افزار راسا تصمیم‌گیری می‌کند – چیزی که ما توضیح‌پذیری هوش مصنوعی می‌نامیم، ایجاد کنیم.

دیدگاه

شما هم می توانید دیدگاه خود را ثبت کنید



کد امنیتی کد جدید