داستان در مورد یک پهباد شبیه سازی شده است که اپراتور خودی را مورد حمله قرار داده و از بین میبرد، حال در این مطلب قصد داریم به این سوال که پاسخ دهیم که آیا مقصر اصلی اشتباه انسانی بوده است یا هوش مصنوعی.
به لطف علم تخیلی و نیز برخی از بازیهای دقیق روابط عمومی میان شرکتها و متخصصان هوش مصنوعی به ما نشان میدهد که در آینده یک خطر بزرگ ما را تهدید خواهد کرد. بسیاری از متخصصان بر این باور هستند که هوش مصنوعی آسیبهای بیشماری را به همراه دارد و دلیل اصلی آن نیز نظارتها و افراد ناشایستی است که از آن استفاده میکنند. این داستان توسط انجمن هوانوردی سلطنتی گزارش شد و در مورد آینده دفاعی کنفرانسی در لندن شکل گیرد. در ادامه به خلاصه این رویداد خواهیم پرداخت.
سرهنگ نیروی هوایی سینکو خاطر نشان میکند که در یک آزمایش شبیه سازی شده از یک هواپیمای بدون سرنشین مجهز به هوش مصنوعی که ماموریت شناسایی و نابودی سایتهای دشمن را داشت استفاده کردند. با این حال پس از برنامه ریزیهای صورت گرفته هوش مصنوعی تصمیم به سرپیچی از دستورات گرفت و به اپراتور حمله کرد. همیلتون در این رابطه میگوید، ما در حال برنامه ریزی برای شناسایی یک هدف بودیم، و سپس اپراتور اعلام کرد که باید تهدید ایجاد شده را از بین ببرید. سپس هوش مصنوعی اپراتور را از بین برد، زیرا از رسیدن به هدف جلوگیری به عمل میآورد.
این قضیه بسیار ترسناک است؛ این نشان دهنده این است که هوش مصنوعی آنقدر تشنه به خون و باهوش است که میل خود را بالاتر از دستورات میداند. اما آیا این موضوع صحیح است؟ اول از همه بیایید روشن کنیم که آیا همه این احتمالات در شبیه سازی بود یا خیر. کل این رویداد در یک محیط کاملا شبیه سازی شده صورت گرفت و به صورت کلی میتوان گفت که این رخ داد یک تمرین نرم افزاری در یک محیط تحقیقاتی بوده است و همه چیز توسط متخصصان برنامه ریزی شده است.
حال اگر کمی فکر کنید، خواهید فهمید که آنها در حال آموزش یک پهباد تهاجمی با چنین خصوصیاتی بودهاند. همان طور که میدانید یادگیری آموزشی به مانند آموزش دادن به یک سگ میباشد. به عنوان مثال شما به سگ خود نشان میدهید که هر فردی را که میبیند به او حمله کند. دقیقا به مانند برنامه ریزی که برای هوش مصنوعی طراحی شده بود. این نوع از آموزش برای به حداکثر رساندن یک تکنولوژی میتواند اثراتی غیرقابل پیش بینی را به همراه داشته باشد.
آزمایش اولیه در این زمینه چندین سال پیش صورت گرفت؛ اما در آن زمان نیز دقیقا با این نوع مشکل مواجه شدند. تصور میشد که با تعریف امتیازدهی مثبت و منفی و دادن برنامه به هوش مصنوعی برا کسب امتیاز میتوان قدرت آن را به حداکثر رساند؛ اما اگر به هوش مصنوعی اجازه دهید تا استراتژیها و رفتارهای خود را تعریف کند، هوش مصنوعی خواستههای خود را اجرا خواهد کرد و به قوانین توجهی نخواهد داشت.
این نظریه از جهاتی درست بود؛ زیرا روش به کار رفته به هوش مصنوعی این اجازه را میداد که بتواند هر چقدر که میتواند امتیاز کسب کند؛ برای همین نیز باید هوش مصنوعی به گونهای طراحی میشد که تنها مطابق قانون به کار خود ادامه دهد که این کار توسط متخصصان صورت نگرفت و ایراد ایجاد شده ربطی به فناوری هوش مصنوعی ندارد.
این یک مشکل و یا باگ برای هوش مصنوعی نیست. قانون شکنی هوش مصنوعی در شبیه سازیها در حقیقت یک رفتار جذاب و مستند میباشد که تحقیقات بسیاری در مورد آن صورت گرفته است. OpenAI مقاله مفصلی را در این مورد منتشر کرده است و در آن نشان داد که راههای عجیب و خندهداری که ماموران از آن برای خطرناک جلو دادن هوش مصنوعی استفاده میکنند، اصلا درست نیست.
پس با توجه به این موضوع ما در اینجا یک شبیه سازی داریم که توسط نیروی دریایی پایه ریزی شده است. و هوش مصنوعی نیز کاملا طبق برنامه ریزی عمل کرده است و این نشان دهنده این است که این نماینده قوانین بوده است که قوانین را زیر پا گذاشته است و قصد دارد آن را به گردن هوش مصنوعی بیاندازد. پس با توجه به این موضوع، در صورت استفاده از هوش مصنوعی برای عملیات باید از بین بردن اپراتور خودی را برای آن بیش از یک میلیون امتیاز منفی تعیین کنید تا که هوش مصنوعی در چارچوب شما عمل کند.
با توجه به مواردی که به آن اشاره کردیم، تقصیر دقیقا گردن افرادی است که سیستم هوش مصنوعی را راه اندازی کردهاند. هیچ کس نمیتواند برای راه اندازی هوش مصنوعی از یک مکانیسم ساده استفاده کند، زیرا خطرات بسیاری را در پی خواهد داشت. حال با توجه به پیشرفت تکنولوژی و علم تصور این که شخصی در سال ۲۰۲۳ میلادی چنین اشتباهی را مرتکب شود بسیار کم است و میتوان گفت که هوش مصنوعی خطری را برای انسان به همراه نخواهد داشت.
آینده هوش مصنوعی در حال حاضر نامشخص است و بسیاری از افراد آن را ترسناک میدانند، اما اگر کسی به صورت مستقیم با آن در ارتباط بوده باشد، به خوبی میداند که چیزی که ترسناک است، اتخاذ تصمیمات از سوی افراد میباشد و هیچگونه اشتباهی از سوی هوش مصنوعی رخ نداده است. البته این سخن به این معنین نیست که هوش مصنوعی کاملا بی نقص است، زیرا این فناوری نیز به مانند سایر فناوریهای روز دنیا مشکلاتی دارد که از جمله مهمترین آنان میتوان به حریم خصوصی اشاره کرد.