مدیر مسئول فصلنامه تازه های مغز و شناخت
رباتها میتوانند غذا را در محوطه دانشگاه تحویل دهند و در زمین گلف به یک سوراخ برخورد کنند، اما پیچیدهترین رباتها هم نمیتوانند تعاملات اجتماعی اولیه را که برای زندگی روزمره انسان هستند انجام دهند.
محققان MIT اکنون برخی از تعاملات اجتماعی را در چارچوبی برای رباتیک ادغام کردهاند، که به ماشینها امکان میدهد معنی کمک یا ممانعت از یکدیگر را درک کنند و یاد بگیرند که این رفتارهای اجتماعی را به تنهایی انجام دهند. در یک محیط شبیه سازی شده، یک ربات همراه خود را تماشا میکند، حدس می زند چه کاری را میخواهد انجام دهد، و سپس بر اساس اهداف خود به ربات دیگر کمک میکند یا مانع میشود.
محققان همچنین نشان دادند که مدل آنها تعاملات اجتماعی واقعی و قابل پیش بینی ایجاد میکند. هنگامی که آنها ویدئوهایی از این رباتهای شبیه سازی شده در حال تعامل با یکدیگر را به انسانها نشان دادند، بینندگان انسانی عمدتاً با مدل در مورد نوع رفتار اجتماعی موافق بودند.
توانمندسازی رباتها برای نشان دادن مهارتهای اجتماعی میتواند به تعاملات روانتر و مثبتتر انسان و ربات منجر شود. به عنوان مثال، یک ربات در یک مرکز زندگی کمکی میتواند از این قابلیتها برای کمک به ایجاد یک محیط مراقبتتر برای افراد مسن استفاده کند. مدل جدید همچنین ممکن است دانشمندان را قادر سازد تا تعاملات اجتماعی را به صورت کمی اندازه گیری کنند، که میتواند به روانشناسان در مطالعه اوتیسم یا تجزیه و تحلیل اثرات داروهای ضد افسردگی کمک کند.
رباتها به زودی در دنیای ما زندگی خواهند کرد و واقعاً باید یاد بگیرند که چگونه با ما در شرایط انسانی ارتباط برقرار کنند. آنها باید بفهمند چه زمانی زمان کمک آنها فرا رسیده است و چه زمانی باید ببینند چه کاری میتوانند انجام دهند تا از وقوع چیزی جلوگیری کنند. بوریس کاتز، محقق اصلی و رئیس InfoLab میگوید: «این کار خیلی اولیه است و ما به سختی سطح را میخراشیم، اما من احساس میکنم این اولین تلاش بسیار جدی برای درک معنای تعامل اجتماعی انسانها و ماشینها است. گروهی در آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) و عضو مرکز مغزها، ذهنها و ماشینها (CBMM).
راوی تجوانی، دستیار پژوهشی در CSAIL، به کاتز در این مقاله میپیوندند. نویسنده همکار ین لینگ کو، دکترای CSAIL. دانشجو؛ تیانمین شو، فوق دکترای گروه مغز و علوم شناختی؛ و نویسنده ارشد آندری باربو، دانشمند پژوهشی در CSAIL و CBMM. این تحقیق در کنفرانس آموزش ربات در ماه نوامبر ارائه خواهد شد.
برای مطالعه تعاملات اجتماعی، محققان یک محیط شبیه سازی شده ایجاد کردند که در آن رباتها اهداف فیزیکی و اجتماعی را در حول یک شبکه دو بعدی دنبال میکنند.
هدف فیزیکی به محیط مربوط میشود. به عنوان مثال، هدف فیزیکی یک ربات ممکن است حرکت به سمت درختی در نقطه خاصی از شبکه باشد. یک هدف اجتماعی شامل حدس زدن ربات دیگری است که میخواهد انجام دهد و سپس بر اساس آن تخمین عمل میکند، مانند کمک به یک ربات دیگر برای آبیاری درخت.
محققان از مدل خود برای مشخص کردن اهداف فیزیکی یک ربات، اهداف اجتماعی آن و میزان تاکید آن بر روی دیگری استفاده میکنند. ربات برای اقداماتی که انجام میدهد و به اهدافش نزدیکتر میشود پاداش میگیرد. اگر روباتی بخواهد به همراه خود کمک کند، پاداش خود را مطابق با ربات دیگر تنظیم میکند. اگر بخواهد مانع شود، پاداش خود را برعکس تنظیم میکند. برنامه ریز، الگوریتمی که تصمیم میگیرد ربات چه اقداماتی را انجام دهد، از این پاداش به روز رسانی مداوم برای هدایت ربات برای انجام ترکیبی از اهداف فیزیکی و اجتماعی استفاده میکند.
ما یک چارچوب ریاضی جدیدی را برای نحوه مدلسازی تعامل اجتماعی بین دو عامل باز کردهایم. اگر شما یک ربات هستید و میخواهید به مکان X بروید و من یک ربات دیگر هستم و میبینم که شما سعی میکنید به مکان X بروید، میتوانم با کمک به شما برای رسیدن سریعتر به مکان X همکاری کنم. این ممکن است به معنای نزدیکتر کردن X به خود، یافتن X بهتر دیگر یا انجام هر کاری باشد که باید در X انجام میدادید. تجوانی میگوید، ما «چه» را بر حسب اینکه تعاملات اجتماعی از نظر ریاضی به چه معناست، مشخص میکنیم.
ترکیب اهداف فیزیکی و اجتماعی یک ربات برای ایجاد تعاملات واقع بینانه مهم است، زیرا انسانهایی که به یکدیگر کمک میکنند محدودیتهایی برای پیشرفت آنها دارند. باربو میگوید، برای مثال، یک فرد منطقی احتمالاً کیف پول خود را به غریبه نمیدهد.
محققان از این چارچوب ریاضی برای تعریف سه نوع ربات استفاده کردند. یک ربات سطح 0 فقط اهداف فیزیکی دارد و نمیتواند از نظر اجتماعی استدلال کند. یک ربات سطح 1 دارای اهداف فیزیکی و اجتماعی است اما فرض میکند که همه رباتهای دیگر فقط اهداف فیزیکی دارند. رباتهای سطح 1 میتوانند اقداماتی را بر اساس اهداف فیزیکی رباتهای دیگر انجام دهند، مانند کمک و ممانعت. یک ربات سطح 2 فرض میکند که رباتهای دیگر اهداف اجتماعی و فیزیکی دارند. این رباتها میتوانند اقدامات پیچیدهتری مانند ملحق شدن برای کمک به یکدیگر انجام دهند.
برای اینکه ببینند مدل آنها در مقایسه با دیدگاههای انسانی در مورد تعاملات اجتماعی، 98 سناریو مختلف را با روباتها در سطوح 0، 1 و 2 ایجاد کردند. دوازده انسان 196 کلیپ ویدیویی از تعامل روباتها را تماشا کردند و سپس از آنها خواسته شد اهداف فیزیکی و اجتماعی را برآورد کنند. از آن رباتها
در بیشتر موارد، مدل آنها با آنچه انسانها در مورد تعاملات اجتماعی که در هر فریم اتفاق میافتد، موافق بود.
ما این علاقه بلندمدت را داریم، هم برای ساختن مدلهای محاسباتی برای روباتها، و هم برای کاوش عمیقتر در جنبههای انسانی این موضوع. ما میخواهیم دریابیم که انسانها از چه ویژگیهایی از این ویدیوها برای درک تعاملات اجتماعی استفاده میکنند. آیا میتوانیم یک آزمون عینی برای توانایی شما در تشخیص تعاملات اجتماعی انجام دهیم؟ شاید راهی وجود داشته باشد که به مردم یاد دهیم این تعاملات اجتماعی را بشناسند و تواناییهای خود را بهبود بخشند. ما با این امر فاصله زیادی داریم، اما حتی این که بتوانیم تعاملات اجتماعی را به طور مؤثر اندازه گیری کنیم، گام بزرگی به جلو است».
محققان در حال کار بر روی توسعه سیستمی با عوامل سه بعدی در محیطی هستند که انواع بیشتری از تعاملات، مانند دستکاری اشیاء خانگی را امکان پذیر میکند. آنها همچنین در حال برنامهریزی برای اصلاح مدل خود هستند تا محیطهایی را شامل شود که اقدامات ممکن است با شکست مواجه شوند.
محققان همچنین میخواهند یک برنامه ریز ربات مبتنی بر شبکه عصبی را در این مدل بگنجانند که از تجربه یاد میگیرد و سریعتر عمل میکند. در نهایت، آنها امیدوارند آزمایشی را برای جمعآوری دادههایی درباره ویژگیهایی که انسانها برای تعیین اینکه آیا دو ربات در تعامل اجتماعی استفاده میکنند یا خیر، انجام دهند.
باربو میگوید: «امیدواریم که معیاری داشته باشیم که به همه محققان اجازه میدهد روی این تعاملات اجتماعی کار کنند و انواع پیشرفتهای علمی و مهندسی را که در زمینههای دیگر مانند تشخیص اشیا و عمل دیدهایم الهام بخشند».
تومر اولمن، استادیار دپارتمان روانشناسی دانشگاه هاروارد و رئیس آزمایشگاه محاسبات، شناخت و توسعه که درگیر این موضوع نبود، میگوید: «فکر میکنم این یک کاربرد دوستداشتنی از استدلال ساختاریافته برای یک چالش پیچیده و در عین حال فوری است. این تحقیق. به نظر میرسد حتی نوزادان خردسال هم تعاملات اجتماعی مانند کمک و ممانعت را درک میکنند، اما ما هنوز ماشینهایی نداریم که بتواند این استدلال را در هر چیزی مانند انعطافپذیری در سطح انسانی انجام دهد. من معتقدم مدلهایی مانند مدلهایی که در این کار پیشنهاد شدهاند، که دارای عواملی هستند که به پاداشهای دیگران فکر میکنند و از نظر اجتماعی برنامهریزی میکنند که چگونه بهترین راه را برای خنثی کردن یا حمایت از آنها داشته باشند، گام خوبی در مسیر درست هستند».