عینک های مجهز به سونار، دستورات صوتی زیرلبی کاربران را می خوانند!
به گزارش شهر ورزش، بعضی از افراد فاقد قدرت گفتار هستند، بعضی دیگر هم ممکن است مدام در در محیط های پر سر و صدایی به سر ببرند که در آن دستور صوتی دادن با صدای بلند کارایی ندارد. چنین افرادی می توانند از عینک EchoSpeech بهره ببرند که کلمات بی صدای کاربر خود را می خواند.
این عینک آزمایشی به وسیله محققانی در آزمایشگاه رابط های کامپیوتری هوشمند برای تعاملات آینده (SciFi) دانشگاه کورنل ساخته شده است.
دو بلندگوی مینیاتوری رو به پایین در قسمت زیرین قاب هر لنز عینک جاگذاری شده اند. بلندگوها امواج صوتی نامفهومی را منتشر می نمایند که از دهان جنبان کاربر منعکس می شود و به سمت میکروفون برمی شود.
این پژواک ها به وسیله یک الگوریتم یادگیری عمیق در گوشی هوشمند متصل به صورت بی سیم تجزیه و تحلیل می شوند. این الگوریتم برای مرتبط ساختن پژواک های خاص با حرکات دهان خاص آموزش داده شده اند.
EchoSpeech در حال حاضر قادر است 31 دستور را با دقت 95 درصد تشخیص دهد و تنها به چند دقیقه آموزش برای هر کاربر احتیاج دارد و مهمتر از همه برای افرادی که نگرانی های مربوط به حفظ حریم خصوصی دارند، این سیستم هیچ دوربینی را در خود جای نمی دهد و هیچ اطلاعاتی را به اینترنت ارسال نمی نماید.
علاوه بر این، از آنجایی که از یک دوربین پرقدرت استفاده نمی نماید، با یک بار شارژ باتری می تواند تا 10 ساعت کار کند. در مقابل، محققان ادعا می نمایند که سیستم های مبتنی بر دوربین تنها برای حدود 30 دقیقه با هر بار شارژ کار می نمایند.
این دانشگاه در حال حاضر روی تجاری سازی این فناوری کار می نماید. به این ترتیب، این فناوری گفتار بی صدا می تواند ورودی عالی برای یک سنتزنماینده صدا باشد.
آزمایشگاه SciFi قبلاً یک سیستم تقریباً مشابه به نام EarIO توسعه داده بود که از یک دستگاه مجهز به سونار برای ثبت حالات چهره کاربر استفاده می کرد. اگرچه عمدتاً برای ایجاد آواتارهای دیجیتال استفاده می کرد. گفته می شود، سیستم EarCommand دانشگاه بوفالو هم کلماتی را که به زبان بی صدا گفته می شود، به وسیله یک هدفون می خواند که تغییر شکل های مجزای کانال گوش را که به وسیله حرکات خاص دهان ایجاد می شود، تشخیص می دهد.
منبع: Cornell University
منبع: یک پزشک