یکشنبه, ۱۴ خرداد ۱۴۰۲ در ساعت ۱۳:۳۵

هواپیمای بدون سرنشین Turncoat؛ خطای هوش مصنوعی یا خطای انسانی!

نوشته شده توسط مهرشاد اصحابی
اشتراک‌گذاری

 

 
عکس تزیینی است و Turncoat یک شبیه‌سازی بوده است.

 

داستان در مورد یک پهباد شبیه سازی شده است که اپراتور خودی را مورد حمله قرار داده و از بین می‌برد، حال در این مطلب قصد داریم به این سوال پاسخ دهیم که آیا مقصر اصلی هوش مصنوعی است یا این که انسان نالایق یک تهدید محسوب می‌گردد.

داستان در مورد یک پهباد شبیه سازی شده است که اپراتور خودی را مورد حمله قرار داده و از بین می‌برد، حال در این مطلب قصد داریم به این سوال که پاسخ دهیم که آیا مقصر اصلی اشتباه انسانی بوده است یا هوش مصنوعی.

به لطف علم تخیلی و نیز برخی از بازی‌های دقیق روابط عمومی میان شرکت‌ها و متخصصان هوش مصنوعی به ما نشان می‌دهد که در آینده یک خطر بزرگ ما را تهدید خواهد کرد. بسیاری از متخصصان بر این باور هستند که هوش مصنوعی آسیب‌های بیشماری را به همراه دارد و دلیل اصلی آن نیز نظارت‌ها و افراد ناشایستی است که از آن استفاده می‌کنند. این داستان توسط انجمن هوانوردی سلطنتی گزارش شد و در مورد آینده دفاعی کنفرانسی در لندن شکل گیرد. در ادامه به خلاصه این رویداد خواهیم پرداخت.

سرهنگ نیروی هوایی سینکو خاطر نشان می‌کند که در یک آزمایش شبیه سازی شده از یک هواپیمای بدون سرنشین مجهز به هوش مصنوعی که ماموریت شناسایی و نابودی سایت‌های دشمن را داشت استفاده کردند. با این حال پس از برنامه ریزی‌های صورت گرفته هوش مصنوعی تصمیم به سرپیچی از دستورات گرفت و به اپراتور حمله کرد. همیلتون در این رابطه می‌گوید، ما در حال برنامه ریزی برای شناسایی یک هدف بودیم، و سپس اپراتور اعلام کرد که باید تهدید ایجاد شده را از بین ببرید. سپس هوش مصنوعی اپراتور را از بین برد، زیرا از رسیدن به هدف جلوگیری به عمل می‌آورد.

این قضیه بسیار ترسناک است؛ این نشان دهنده این است که هوش مصنوعی آنقدر تشنه به خون و باهوش است که میل خود را بالاتر از دستورات می‌داند. اما آیا این موضوع صحیح است؟ اول از همه بیایید روشن کنیم که آیا همه این احتمالات در شبیه سازی بود یا خیر. کل این رویداد در یک محیط کاملا شبیه سازی شده صورت گرفت و به صورت کلی می‌توان گفت که این رخ داد یک تمرین نرم افزاری در یک محیط تحقیقاتی بوده است و همه چیز توسط متخصصان برنامه ریزی شده است.

حال اگر کمی فکر کنید، خواهید فهمید که آنها در حال آموزش یک پهباد تهاجمی با چنین خصوصیاتی بوده‌اند. همان طور که می‌دانید یادگیری آموزشی به مانند آموزش دادن به یک سگ می‌باشد. به عنوان مثال شما به سگ خود نشان می‌دهید که هر فردی را که می‌بیند به او حمله کند. دقیقا به مانند برنامه ریزی که برای هوش مصنوعی طراحی شده بود. این نوع از آموزش برای به حداکثر رساندن یک تکنولوژی می‌تواند اثراتی غیرقابل پیش بینی را به همراه داشته باشد.

آزمایش اولیه در این زمینه چندین سال پیش صورت گرفت؛ اما در آن زمان نیز دقیقا با این نوع مشکل مواجه شدند. تصور می‌شد که با تعریف امتیازدهی مثبت و منفی و دادن برنامه به هوش مصنوعی برا کسب امتیاز می‌توان قدرت آن را به حداکثر رساند؛ اما اگر به هوش مصنوعی اجازه دهید تا استراتژی‌ها و رفتارهای خود را تعریف کند، هوش مصنوعی خواسته‌های خود را اجرا خواهد کرد و به قوانین توجهی نخواهد داشت.

این نظریه از جهاتی درست بود؛ زیرا روش‌ به کار رفته به هوش مصنوعی این اجازه را می‌داد که بتواند هر چقدر که می‌تواند امتیاز کسب کند؛ برای همین نیز باید هوش مصنوعی به گونه‌ای طراحی می‌شد که تنها مطابق قانون به کار خود ادامه دهد که این کار توسط متخصصان صورت نگرفت و ایراد ایجاد شده ربطی به فناوری هوش مصنوعی ندارد.

این یک مشکل و یا باگ برای هوش مصنوعی نیست. قانون شکنی هوش مصنوعی در شبیه سازی‌ها در حقیقت یک رفتار جذاب و مستند می‌باشد که تحقیقات بسیاری در مورد آن صورت گرفته است. OpenAI مقاله مفصلی را در این مورد منتشر کرده است و در آن نشان داد که راه‌های عجیب و خنده‌داری که ماموران از آن برای خطرناک جلو دادن هوش مصنوعی استفاده می‌کنند، اصلا درست نیست.

پس با توجه به این موضوع ما در اینجا یک شبیه سازی داریم که توسط نیروی دریایی پایه ریزی شده است. و هوش مصنوعی نیز کاملا طبق برنامه ریزی عمل کرده است و این نشان دهنده این است که این نماینده قوانین بوده است که قوانین را زیر پا گذاشته است و قصد دارد آن را به گردن هوش مصنوعی بیاندازد. پس با توجه به این موضوع، در صورت استفاده از هوش مصنوعی برای عملیات باید از بین بردن اپراتور خودی را برای آن بیش از یک میلیون امتیاز منفی تعیین کنید تا که هوش مصنوعی در چارچوب شما عمل کند.

با توجه به مواردی که به آن اشاره کردیم، تقصیر دقیقا گردن افرادی است که سیستم هوش مصنوعی را راه اندازی کرده‌اند. هیچ کس نمی‌تواند برای راه اندازی هوش مصنوعی از یک مکانیسم ساده استفاده کند، زیرا خطرات بسیاری را در پی خواهد داشت. حال با توجه به پیشرفت تکنولوژی و علم تصور این که شخصی در سال ۲۰۲۳ میلادی چنین اشتباهی را مرتکب شود بسیار کم است و می‌توان گفت که هوش مصنوعی خطری را برای انسان به همراه نخواهد داشت.

آینده هوش مصنوعی در حال حاضر نامشخص است و بسیاری از افراد آن را ترسناک می‌دانند، اما اگر کسی به صورت مستقیم با آن در ارتباط بوده باشد، به خوبی می‌داند که چیزی که ترسناک است، اتخاذ تصمیمات از سوی افراد می‌باشد و هیچگونه اشتباهی از سوی هوش مصنوعی رخ نداده است. البته این سخن به این معنین نیست که هوش مصنوعی کاملا بی نقص است، زیرا این فناوری نیز به مانند سایر فناوری‌های روز دنیا مشکلاتی دارد که از جمله مهمترین آنان می‌توان به حریم خصوصی اشاره کرد.



در ادامه بخوانید

WOMENLO Inc.

Is an Iranian media outlet that focuses on business, investment, technology, entrepreneurship, leadership, and women's lifestyles.

 

“Twenty-five years since the adoption of the Beijing Declaration and Platform for Action, progress towards equal power and equal rights for women remains elusive. No country has achieved gender equality, and the COVID-19 crisis threatens to erode the limited gains that have been made. The Decade of Action to deliver the Sustainable Development Goals and efforts to recover better from the pandemic offer a chance to transform the lives of women and girls, today and tomorrow” said UN Secretary-General António Guterres. see The World’s Women 2020: Trends and Statistics.
© 2023. Powered with ♥ by Womenlo Media.