ابزارهای هوش مصنوعی این روزها، به سرعت درحال فراگیر شدن میان مردم و جوامع مختلف میباشند. درحال حاضر از این ابزارها در سیستمهای آموزشی، حوزههای مراقبتی و بهداشتی و کارهای روزمره انسانها استفاده میشود و روز به روز، علاقه دولتها و سازمانهای مختلف، به در اختیار گرفتن این فناوری بیشتر و بیشتر میشود. اما با این حال، این ابزارها علاوهبر مزیتهای بیشماری که دارند، میتوانند خطرناک نیز میباشند. درحقیقت، حفظ امنیت کاربران آنها و جلوگیری از بروز مشکلات امنیتی و سواستفادههای احتمالی از آنها، اکنون به یک امر واجب تبدیل شده است. به همین منظور، اخیران محققان توانستهاند یک نرم افزار امنیتی برای بررسی میزان دانش ابزارهای هوش مصنوعی مولد طراحی کنند تا شرکتهای سازنده آنها بتوانند با دید کافی، محدودیتهای لازم برای جلوگیری از مشکلات احتمالی بر روی آنها اعمال کنند.
این نرم افزار که میتواند به عنوان بخشی از پروتکل امنیتی آنلاین یک شرکت مورد استفاده قرار گیرد، در حال حاضر در Surrey طراحی شده است. درواقع Surrey قادر است به شرکتهای سازنده هوش مصنوعی کمک میکند تا بفهمند ابزار انها چه میزان اطلاعاتی را توانسته در خود جا بدهد و یا به شکل سادهتر، چه چیزهایی را توانسته یاد بگیرد. همچنین این نرم افزار میتواند بررسی کند که آیا ابزارهای هوش مصنوعی مولد به اطلاعات حساس و حیاتی دست یافتهاند یا خیر، و به شرکتها سازنده آنها در حفظ و امنیت این اطلاعات کمک کند.
این نرم افزار همچنین قادر است تشخیص دهد که آیا یک ابزار هوش مصنوعی مولد نقصهای کد یک نرم افزار را توانسته شناسایی کند تا از آنها به نفع خود استفاده کند یا خیر. به عنوان مثال، در یک زمینه بازی آنلاین، میتواند سواستفاده هوش مصنوعی از یک خطای برنامه نویسی برای برنده شدن در بازی پوکر را تشخیص دهد.
دکتر Solofomampionona Fortunat Rajaona پژوهشگر در تأیید رسمی حریم خصوصی در دانشگاه Surrey درباره این نرم افزار گفته است: «در بسیاری از موارد، سیستمهای هوش مصنوعی با یکدیگر یا با انسانها تعامل دارند، مانند ماشینهای خودران در بزرگراه یا رباتهای بیمارستان. بررسی این موضوع که یک سیستم داده هوشمند هوش مصنوعی دقیقا چه اطلاعاتی را در خود جای داده است، یکی از مشکلاتی مهمی بود که پیدا کردن راه حل برای آن، سالها طول کشیده است.»
«نرم افزار ما در حال حاضر میتواند میزان توانایی یک ابزار هوش مصنوعی را از تعامل با ما و دیگر مولدها را بررسی کند. این نرم افزار میتواند مشخص کند که آیا این ابزارها دانش کافی برای به موفقیت رساندن یک پروژه را دارا هستند یا خیر. همچنین از این نرم افزار میتوان برای بررسی کنترل دانش آنها برای جلوگیری از نقض حریم خصوصی کاربران استفاده کرد. با وجود این نرم افزار و توانایی در تشخیص دانش هوش مصنوعیهای مولد، شرکتهای سازنده این فناوری میتوانند در قبال امنیت ابزارهای خود، اطمینان کافی را حاصل کنند.»
پروفسور Adrian Hilton، مدیر موسسه هوش مصنوعی مردم محور در دانشگاه Surrey، درباره این نرم افزار گفته است: «طی چند ماه گذشته، علاقه شدید مردم و صنعت به مدلهای هوش مصنوعی مولد ناشی از پیشرفتها در مدلهای زبان بزرگ مانند چت بات محبوب ChatGPT بوده است. وجود ابزارهایی که میتوانند عملکرد هوش مصنوعی مولد را به صورت تخصصی بررسی کنند، برای جلوگیری از نقض حریم خصوصی کاربران و ایمنی ابزارهای هوش مصنوعی بیش از پیش ضروری میباشد. این تحقیق گامی مهم در جهت حفظ حریم خصوصی و یکپارچگی مجموعه دادههای مورد استفاده در آموزش ابزارهای هوش مصنوعی مورد استفاده مردم میباشد.»
اخیرا مطالعه در مورد نرم افزار جدید دانشگاه Surrey برنده جایزه بهترین مقاله در بیست و پنجمین سمپوزیوم بین المللی Formal Methods شده است.