حسگرهای پوشیدنی روزی میتوانند حرکتهای زبان اشاره را درک کرده و آنها را به زبان انگلیسی ترجمه کنند و پاسخی فناورانه برای مشکل ارتباط میان افراد لال و افراد ناآشنا با زبان اشاره فراهم کنند.
مهندسان دانشگاه Texas A&M سرگرم توسعۀ دستگاهی پوشیدنی هستند که میتواند حرکت و فعالیت ماهیچۀ بازوی انسان را حس کند.
این دستگاه با دو حسگر مجزا از حرکتهای اشارۀ فرد آگاه میشود: یک حسگر حرکت مچ دست و دیگری حرکتهای عضلانی بازو را حس میکند. سپس یک نرمافزار به صورت بیسیم این دادهها را دریافت کرده و آنها را به زبان انگلیسی ترجمه میکند.
روزبه جعفری، استادیار مهندسی زیست پزشکی دانشگاه Texas A&M و رهبر این پژوهش گفت: «بخش زیادی از این فناوری … برپایۀ بینایی یا راه حلهای مبتنی بر دوربین بود».
به گفتۀ جعفری طراحی موجود کافی نیست چرا که اشخاص هنگام صحبت به زبان اشاره حرکتهای دست را با ترکیبی از حرکتهای ویژۀ انگشتان بکار میبرند.
جعفری به Live Science گفت: «من فکر کردم شاید ما باید به دنبال ترکیب حسگرهای حرکت و فعالیت ماهیچهها باشیم و این ایدۀ ساخت یک دستگاه پوشیدنی بود».
پژوهشگران یک سامانۀ پیشنمونه ساختهاند که میتواند واژههای پرکاربرد در گفتگوهای روزانۀ افراد را شناسایی کند. جعفری گفت هنگامی که گروه کار گسترش نرمافزار را آغاز کند، برای ساخت یک فرهنگ واژگانی قابل توجه، واژههای بیشتری را که کمتر بکار میروند به آن خواهند افزود.
به گفتۀ جعفری یک نقطه ضعف پیشنمونه نیاز به آموزش دیدن مجدد برای پاسخ به هر شخصی است که آن را میپوشد. این فرآیند آموزش شامل درخواست از کاربر برای تکرار یا انجام هر حرکت اشاره دست برای چند مرتبه است که میتواند تا سی دقیقه طول بکشد.
جعفری گفت: «اگر من و شما آن را بپوشیم – بدنهای ما متفاوت است … ساختار عضلانی ما متفاوت است».
ولی جعفری فکر میکند که این مشکل تا اندازۀ زیادی برآمده از محدودیتهای زمانی است که گروه در ساخت پیشنمونه با آن روبرو شدند. ساخت دستگاه برای دو دانشجوی کارشناسی ارشد تنها دو هفته طول کشید بنابراین او مطمئن است که در مراحل بعدی توسعه، این دستگاه پیشرفتهتر خواهد شد.
پژوهشگران قصد دارند زمان آموزش دستگاه را کم کرده و یا کلاً آن را حذف نمایند تا این دستگاه پوشیدنی به صورت خودکار به کاربر پاسخ دهد. همچنین جعفری میخواهد کارایی حسگرها را افزایش دهد تا دستگاه در گفتگوهای زندگی واقعی کارآمدتر باشد. اکنون دستگاه در هر لحظه تنها میتواند یک واژه از حرکتهای زبان اشاره فرد را بخواند.
ولی ما اینگونه صحبت نمیکنیم. جعفری گفت: «وقتی ما صحبت میکنیم همۀ واژهها را در یک جمله قرار میدهیم. انتقال از یک واژه به واژۀ دیگر به شکل یکپارچه و واقعاً بدون درنگ است».
او افزود: «ما نیازمند ایجاد روشهای پردازش سیگنالی هستیم که به ما کمک کنند یک جملۀ کامل را شناسایی کرده و درک کنیم».
برای نمونه، هم اکنون مردم با بکارگیری صفحههای کلید برای فرستادن دستورها به دستگاههای الکترونیکی راحت هستند اما جعفری فکر میکند تایپ کردن روی دستگاههایی مانند ساعتهای هوشمند عملی نیست چرا که آنها به دنبال داشتن صفحه نمایشهای کوچک هستند.
او گفت: «ما یک رابط کاربری جدید نیاز داریم که در برقراری ارتباط با این دستگاهها به ما کمک کند. دستگاههایی مانندحسگرهای پوشیدنی ممکن است ما را به آن نقطه برساند. این کار اساساً ممکن است گامی درست در جهتی درست باشد».
جعفری این پژوهش را در دوازدهمین کنفرانس سالانۀ شبکههای حسگر بدن (Body Sensor Networks) موسسۀ مهندسین برق و الکترونیک (IEEE) که در ماه ژوئن برگزار شد ارائه کرد.
منبع: livescience.com