گوگل برای ساخت یک روبات صادق تقلا می کند

به گزارش خبرگزاری بلومبرگ، گوگل برای ساخت یک روبات صادق تقلا می کند.

گوگل می تواند آینده ای را ببیند که روباتها در جارو کردن زمین و خالی کردن ماشین ظرفشویی به ما کمک می کنند. دلیل این تقلا برای است تا از اینکه روباتها هنگام کمک به ما به طور غیر عمد گلدان زینتی ما را ندزدند یا کار بدتری انجام ندهند اطمینان حاصل شود.  

محققان بخش گوگل شرکت آلفابت به همراه همکارانشان در دانشگاه استنفورد، دانشگاه کافیفرنیا در برکلی و شرکت اوپن آی یک شرکت توسعه هوش مصنوعی که توسط الون ماسک حمایت می شود، در مورد نحوه طراحی ذهن روباتها نظریه هایی دارند تا روباتها برای آدمهایی که کار می کنند عواقب ناخواسته ای نداشته باشند. آنها یک مقاله فنی منتشر کرده اند که به طور خلاصه گویای طرز فکرشان است. انگیزه این تحقیق محبوبیت بسیار زیاد هوش مصنوعی است، نرم افزاری که می تواند از دنیای اطرافش بیاموزد و به آن عمل کند. سیستم AI امروزی به خودروها اجازه می دهد خودشان رانندگی کنند، در تلفنها امکان تشخیص کلمات بیان شده را ایجاد می کند، و می تواند برای بازار سهام استراتژی تجاری دهد. در آینده شرکتها از AI به عنوان دستیار شخصی استفاده خواهند کرد، در ابتدا به عنوان خدمات نرم افزاری مثل برنامه سیری شرکت اپل و برنامه دستیار گوگل و بعدها روباتهای باهوشی که می توانند خودشان کار انجام دهند. اما قبل از اینکه به یک دستگاه هوشیار توانایی تصمیم گیری بدهیم باید از هم راستا بودن اهداف روبات با مالک انسان آن اطمینان حاصل کنیم.

این مقاله برخی از مشکلاتی را که طراحان روبات ممکن است در آینده با آنها مواجه شوند بیان می کند و از فنون ساخت نرم افزاری که از خرابکار شدن دستگاههای هوشیار جلوگیری می کند فهرستی ارائه می دهد. این تقلا به خاطر ذات بی انتهای هوش است و این معما مثل مواجه شدن با مهارگرهای دیگر مثل سیستم مالی است که باید در نظر گرفته شود چطور قوانینی طراحی  شوند که به این موجودات اجازه دستیابی به اهدافشان را در سیستمی که شما تنظیم کرده اید بدهد بدون اینکه قوانین شما را ویران کنند یا در مواقع غیر ضروری توسط آن قوانین محدود شوند؟ محققان در این مقاله نوشته اند:”با توجه به امکان واقع بینانه وجود دستگاههایی با سیستمهای خودآموز که روند صنعتی، سیستمهای مرتبط با سلامت، و تکنولوژیهای دیگری با ماموریتهای حیاتی را کنترل می کنند، حوادث کوچک تهدیدی خیلی واقعی به نظر می رسند و هم به خاطر ماهیت این حوادث و هم به خاطر اینکه چنین حوادثی می توانند موجب از دست رفتن اعتماد به دستگاههای خودکار شوند جلوگیری از بروز آنها حیاتی است.”

برخی از راه حلهای پیشنهادی محققان شامل محدود کردن میزان کنترل سیستم AI بر محیط اطرافش است، به نحوی که آسیب را مهار کند و رباط را با دوست انسانش هماهنگ کند. یک نظریه دیگر، برنامه نویسی “سیم هشداردهنده” در دستگاه AI است که در صورت خارج شدن ناگهانی دستگاه از روال تعیین شده به انسان هشدار دهد.

او می گوید:” اگر فردی فقط پنج ثانیه به این فکر کند که آیا ساخت چیزی باهوش تر از شما عقیده خوبی است یا خیر، قطعا متوجه خواهد شد که حتما مشکلی سر راه وجود دارد.”

ترجمه آنلاین نویسنده، فرنگیس رحیق

1 پاسخ

دیدگاه خود را ثبت کنید

Want to join the discussion?
Feel free to contribute!

پاسخ دادن به دیکشنری لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *