رونمایی پلتفرم هوش مصنوعی Signs انویدیا برای آموزش زبان اشاره آمریکایی

انویدیا با همکاری شرکای خود، پلتفرم هوش مصنوعی Signs را برای آموزش زبان اشاره آمریکایی (ASL) راه‌اندازی کرده است. به گزارش تک‌ناک، انویدیا با همکاری انجمن آمریکایی کودکان ناشنوا و آژانس خلاق Hello Monday از پلتفرم هوش مصنوعی جدید Signs پرده‌برداری کرد. این سامانه هوش مصنوعی با هدف آموزش زبان اشاره آمریکایی (ASL) و کاهش […]


انویدیا با همکاری شرکای خود، پلتفرم هوش مصنوعی Signs را برای آموزش زبان اشاره آمریکایی (ASL) راه‌اندازی کرده است.

به گزارش تک‌ناک، انویدیا با همکاری انجمن آمریکایی کودکان ناشنوا و آژانس خلاق Hello Monday از پلتفرم هوش مصنوعی جدید Signs پرده‌برداری کرد. این سامانه هوش مصنوعی با هدف آموزش زبان اشاره آمریکایی (ASL) و کاهش موانع ارتباطی میان افراد ناشنوا و شنوا توسعه یافته است.

پلتفرم هوش مصنوعی Signs مجموعه‌ای از داده‌های معتبر را برای یادگیری زبان اشاره و توسعه فناوری‌های مبتنی‌بر ASL ارائه می‌دهد. این سیستم تعاملی به کاربران کمک می‌کند تا به کتابخانه‌ای گسترده از علائم زبان اشاره دسترسی داشته باشند و حرکات صحیح را ازطریق آواتار سه‌بعدی مشاهده کنند و با کمک ابزار هوش مصنوعی تحلیل‌کننده ویدئو، بازخورد آنی درباره اجرای علائم دریافت کنند.

علاوه‌بر این، پلتفرم Signs بستری برای مشارکت داوطلبانه کاربران فراهم کرده است. افراد می‌توانند با ضبط و ارسال ویدئوهای خود، به توسعه مجموعه داده منبع‌باز برای زبان اشاره کمک کنند. با اینکه زبان اشاره آمریکایی سومین زبان پرکاربرد در ایالات متحده محسوب می‌شود، ابزارهای مبتنی‌بر هوش مصنوعی که از داده‌های این زبان استفاده می‌کنند، به‌مراتب کمتر از زبان‌های رایج‌تر مانند انگلیسی و اسپانیایی هستند.

ونچربیت می‌نویسد که انویدیا قصد دارد این مجموعه داده را به ۴۰۰,۰۰۰ کلیپ ویدیویی شامل ۱,۰۰۰ کلمه اشاره‌ای گسترش دهد. این داده‌ها را افراد مسلط به ASL و مترجمان تأیید می‌کنند تا دقت حرکات تضمین شود و فرهنگ لغت تصویری باکیفیت برای آموزش زبان اشاره در دسترس قرار گیرد.

 پلتفرم Signs بستری برای مشارکت داوطلبانه کاربران

انویدیا قصد دارد از این مجموعه داده برای توسعه برنامه‌های هوش مصنوعی دسترس‌پذیر استفاده و موانع ارتباطی میان افراد ناشنوا و شنوا را برطرف کند. این داده‌ها به‌عنوان منبع عمومی منتشر خواهند شد و در توسعه فناوری‌هایی همچون عامل‌های هوش مصنوعی و برنامه‌های انسان دیجیتال و ابزارهای ویدئوکنفرانس می‌توانند استفاده شوند.

ادغام حرکات غیر دستی در آینده

پلتفرم هوش مصنوعی Signs در‌حال‌حاضر روی حرکات دست و موقعیت انگشتان متمرکز است؛ اما زبان اشاره آمریکایی شامل حالات چهره و حرکات سر نیز می‌شود که نقش مهمی در انتقال معانی دارند. تیم توسعه‌دهنده این پلتفرم در حال بررسی روش‌هایی برای ادغام این نشانه‌های غیرحرکتی در نسخه‌های آینده Signs است.

علاوه‌بر این، پژوهشگران در تلاش‌اند تا تفاوت‌های منطقه‌ای و اصطلاحات محاوره‌ای را نیز در سیستم بگنجانند و با همکاری محققان مرکز پژوهشی دسترس‌پذیری و شمول در مؤسسه فناوری راچستر، تجربه کاربری این پلتفرم را برای ناشنوایان و کم‌شنوایان بهینه‌سازی کنند.

پلتفرم Signs در حال حاضر بر روی حرکات دست و موقعیت انگشتان متمرکز است

مجموعه داده پشت پلتفرم هوش مصنوعی Signs قرار است اواخر سال جاری منتشر شود. کاربران علاقه‌مند می‌توانند با مراجعه به signs-ai.com یادگیری را آغاز یا در توسعه مجموعه داده آن مشارکت کنند. همچنین، شرکت‌کنندگان در Nvidia GTC، کنفرانس جهانی هوش مصنوعی که از ۱۷ تا ۲۱ مارس در سن‌خوزه برگزار می‌شود، می‌توانند به‌صورت زنده با این پلتفرم تعامل برقرار کنند.



منبع: تکنک