آموزش مهارت‌های اجتماعی به روبات‌ها

حسن طاهری

حسن طاهری

یک سیستم جدید یادگیری ماشینی به ربات‌ها کمک می‌کند تا برخی از تعاملات اجتماعی را درک کرده و انجام دهند.

ربات‌ها می‌توانند غذا را در محوطه دانشگاه تحویل دهند و در زمین گلف به یک سوراخ برخورد کنند، اما پیچیده‌ترین ربات‌ها هم نمی‌توانند تعاملات اجتماعی اولیه را که برای زندگی روزمره انسان هستند انجام دهند.

محققان MIT اکنون برخی از تعاملات اجتماعی را در چارچوبی برای رباتیک ادغام کرده‌اند، که به ماشین‌ها امکان می‌دهد معنی کمک یا ممانعت از یکدیگر را درک کنند و یاد بگیرند که این رفتارهای اجتماعی را به تنهایی انجام دهند. در یک محیط شبیه سازی شده، یک ربات همراه خود را تماشا می‌کند، حدس می زند چه کاری را می‌خواهد انجام دهد، و سپس بر اساس اهداف خود به ربات دیگر کمک می‌کند یا مانع می‌شود.

محققان همچنین نشان دادند که مدل آنها تعاملات اجتماعی واقعی و قابل پیش بینی ایجاد می‌کند. هنگامی که آنها ویدئوهایی از این ربات‌های شبیه سازی شده در حال تعامل با یکدیگر را به انسان‌ها نشان دادند، بینندگان انسانی عمدتاً با مدل در مورد نوع رفتار اجتماعی موافق بودند.

توانمندسازی ربات‌ها برای نشان دادن مهارت‌های اجتماعی می‌تواند به تعاملات روان‌تر و مثبت‌تر انسان و ربات منجر شود. به عنوان مثال، یک ربات در یک مرکز زندگی کمکی می‌تواند از این قابلیت‌ها برای کمک به ایجاد یک محیط مراقبت‌تر برای افراد مسن استفاده کند. مدل جدید همچنین ممکن است دانشمندان را قادر سازد تا تعاملات اجتماعی را به صورت کمی اندازه گیری کنند، که می‌تواند به روانشناسان در مطالعه اوتیسم یا تجزیه و تحلیل اثرات داروهای ضد افسردگی کمک کند.

ربات‌ها به زودی در دنیای ما زندگی خواهند کرد و واقعاً باید یاد بگیرند که چگونه با ما در شرایط انسانی ارتباط برقرار کنند. آن‌ها باید بفهمند چه زمانی زمان کمک آنها فرا رسیده است و چه زمانی باید ببینند چه کاری می‌توانند انجام دهند تا از وقوع چیزی جلوگیری کنند. بوریس کاتز، محقق اصلی و رئیس InfoLab می‌گوید: «این کار خیلی اولیه است و ما به سختی سطح را می‌خراشیم، اما من احساس می‌کنم این اولین تلاش بسیار جدی برای درک معنای تعامل اجتماعی انسان‌ها و ماشین‌ها است. گروهی در آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) و عضو مرکز مغزها، ذهن‌ها و ماشین‌ها (CBMM).

راوی تجوانی، دستیار پژوهشی در CSAIL، به کاتز در این مقاله می‌پیوندند. نویسنده همکار ین لینگ کو، دکترای CSAIL. دانشجو؛ تیانمین شو، فوق دکترای گروه مغز و علوم شناختی؛ و نویسنده ارشد آندری باربو، دانشمند پژوهشی در CSAIL و CBMM. این تحقیق در کنفرانس آموزش ربات در ماه نوامبر ارائه خواهد شد.

شبیه سازی اجتماعی

برای مطالعه تعاملات اجتماعی، محققان یک محیط شبیه سازی شده ایجاد کردند که در آن ربات‌ها اهداف فیزیکی و اجتماعی را در حول یک شبکه دو بعدی دنبال می‌کنند.

هدف فیزیکی به محیط مربوط می‌شود. به عنوان مثال، هدف فیزیکی یک ربات ممکن است حرکت به سمت درختی در نقطه خاصی از شبکه باشد. یک هدف اجتماعی شامل حدس زدن ربات دیگری است که می‌خواهد انجام دهد و سپس بر اساس آن تخمین عمل می‌کند، مانند کمک به یک ربات دیگر برای آبیاری درخت.

محققان از مدل خود برای مشخص کردن اهداف فیزیکی یک ربات، اهداف اجتماعی آن و میزان تاکید آن بر روی دیگری استفاده می‌کنند. ربات برای اقداماتی که انجام می‌دهد و به اهدافش نزدیک‌تر می‌شود پاداش می‌گیرد. اگر روباتی بخواهد به همراه خود کمک کند، پاداش خود را مطابق با ربات دیگر تنظیم می‌کند. اگر بخواهد مانع شود، پاداش خود را برعکس تنظیم می‌کند. برنامه ریز، الگوریتمی که تصمیم می‌گیرد ربات چه اقداماتی را انجام دهد، از این پاداش به روز رسانی مداوم برای هدایت ربات برای انجام ترکیبی از اهداف فیزیکی و اجتماعی استفاده می‌کند.

ما یک چارچوب ریاضی جدیدی را برای نحوه مدل‌سازی تعامل اجتماعی بین دو عامل باز کرده‌ایم. اگر شما یک ربات هستید و می‌خواهید به مکان X بروید و من یک ربات دیگر هستم و می‌بینم که شما سعی می‌کنید به مکان X بروید، می‌توانم با کمک به شما برای رسیدن سریعتر به مکان X همکاری کنم. این ممکن است به معنای نزدیک‌تر کردن X به خود، یافتن X بهتر دیگر یا انجام هر کاری باشد که باید در X انجام می‌دادید. تجوانی می‌گوید، ما «چه» را بر حسب اینکه تعاملات اجتماعی از نظر ریاضی به چه معناست، مشخص می‌کنیم.

ترکیب اهداف فیزیکی و اجتماعی یک ربات برای ایجاد تعاملات واقع بینانه مهم است، زیرا انسان‌هایی که به یکدیگر کمک می‌کنند محدودیت‌هایی برای پیشرفت آنها دارند. باربو می‌گوید، برای مثال، یک فرد منطقی احتمالاً کیف پول خود را به غریبه نمی‌دهد.

محققان از این چارچوب ریاضی برای تعریف سه نوع ربات استفاده کردند. یک ربات سطح 0 فقط اهداف فیزیکی دارد و نمی‌تواند از نظر اجتماعی استدلال کند. یک ربات سطح 1 دارای اهداف فیزیکی و اجتماعی است اما فرض می‌کند که همه ربات‌های دیگر فقط اهداف فیزیکی دارند. ربات‌های سطح 1 می‌توانند اقداماتی را بر اساس اهداف فیزیکی ربات‌های دیگر انجام دهند، مانند کمک و ممانعت. یک ربات سطح 2 فرض می‌کند که ربات‌های دیگر اهداف اجتماعی و فیزیکی دارند. این ربات‌ها می‌توانند اقدامات پیچیده‌تری مانند ملحق شدن برای کمک به یکدیگر انجام دهند.

ارزیابی مدل

برای اینکه ببینند مدل آنها در مقایسه با دیدگاه‌های انسانی در مورد تعاملات اجتماعی، 98 سناریو مختلف را با روبات‌ها در سطوح 0، 1 و 2 ایجاد کردند. دوازده انسان 196 کلیپ ویدیویی از تعامل روبات‌ها را تماشا کردند و سپس از آنها خواسته شد اهداف فیزیکی و اجتماعی را برآورد کنند. از آن ربات‌ها

در بیشتر موارد، مدل آن‌ها با آنچه انسان‌ها در مورد تعاملات اجتماعی که در هر فریم اتفاق می‌افتد، موافق بود.

ما این علاقه بلندمدت را داریم، هم برای ساختن مدل‌های محاسباتی برای روبات‌ها، و هم برای کاوش عمیق‌تر در جنبه‌های انسانی این موضوع. ما می‌خواهیم دریابیم که انسان‌ها از چه ویژگی‌هایی از این ویدیوها برای درک تعاملات اجتماعی استفاده می‌کنند. آیا می‌توانیم یک آزمون عینی برای توانایی شما در تشخیص تعاملات اجتماعی انجام دهیم؟ شاید راهی وجود داشته باشد که به مردم یاد دهیم این تعاملات اجتماعی را بشناسند و توانایی‌های خود را بهبود بخشند. ما با این امر فاصله زیادی داریم، اما حتی این که بتوانیم تعاملات اجتماعی را به طور مؤثر اندازه گیری کنیم، گام بزرگی به جلو است.»

به سوی پیچیدگی بیشتر

محققان در حال کار بر روی توسعه سیستمی با عوامل سه بعدی در محیطی هستند که انواع بیشتری از تعاملات، مانند دستکاری اشیاء خانگی را امکان پذیر می‌کند. آن‌ها همچنین در حال برنامه‌ریزی برای اصلاح مدل خود هستند تا محیط‌هایی را شامل شود که اقدامات ممکن است با شکست مواجه شوند.

محققان همچنین می‌خواهند یک برنامه ریز ربات مبتنی بر شبکه عصبی را در این مدل بگنجانند که از تجربه یاد می‌گیرد و سریعتر عمل می‌کند. در نهایت، آن‌ها امیدوارند آزمایشی را برای جمع‌آوری داده‌هایی درباره ویژگی‌هایی که انسان‌ها برای تعیین اینکه آیا دو ربات در تعامل اجتماعی استفاده می‌کنند یا خیر، انجام دهند.

باربو می‌گوید: «امیدواریم که معیاری داشته باشیم که به همه محققان اجازه می‌دهد روی این تعاملات اجتماعی کار کنند و انواع پیشرفت‌های علمی و مهندسی را که در زمینه‌های دیگر مانند تشخیص اشیا و عمل دیده‌ایم الهام بخشند».

تومر اولمن، استادیار دپارتمان روانشناسی دانشگاه هاروارد و رئیس آزمایشگاه محاسبات، شناخت و توسعه که درگیر این موضوع نبود، می‌گوید: «فکر می‌کنم این یک کاربرد دوست‌داشتنی از استدلال ساختاریافته برای یک چالش پیچیده و در عین حال فوری است. این تحقیق. به نظر می‌رسد حتی نوزادان خردسال هم تعاملات اجتماعی مانند کمک و ممانعت را درک می‌کنند، اما ما هنوز ماشین‌هایی نداریم که بتواند این استدلال را در هر چیزی مانند انعطاف‌پذیری در سطح انسانی انجام دهد. من معتقدم مدل‌هایی مانند مدل‌هایی که در این کار پیشنهاد شده‌اند، که دارای عواملی هستند که به پاداش‌های دیگران فکر می‌کنند و از نظر اجتماعی برنامه‌ریزی می‌کنند که چگونه بهترین راه را برای خنثی کردن یا حمایت از آن‌ها داشته باشند، گام خوبی در مسیر درست هستند.»

اشتراک گذاری محتوا:

اشتراک گذاری در twitter
اشتراک گذاری در telegram
اشتراک گذاری در whatsapp
اشتراک گذاری در email

مقالات دیگر