قام فريق بحثي بواسطة الذكاء الاصطناعي بتحسين دقة التعرف على لغة الإشارة على مستوى الكلمات، من خلال إضافة بيانات مثل يد الشخص الذي يستخدم لغة الإشارة وتعبيرات وجهه، إضافة إلى معلومات هيكلية عن موضع اليدين بالنسبة للجسم، وهذه الإضافة الجديدة تحسن دقة التعرف على كلمات لغة الإشارة بنسبة 10-15%، حيث تم تطوير لغات الإشارة من قبل دول في جميع أنحاء العالم لتناسب أسلوب الاتصال المحلي، وتتكون كل لغة من آلاف الإشارات.
اكتسب استخدام الذكاء الاصطناعي لترجمة الإشارات تلقائياً إلى كلمات، والمعروف باسم التعرف على لغة الإشارة على مستوى الكلمات، الآن دفعة في الدقة من خلال عمل مجموعة بحثية بقيادة جامعة أوساكا متروبوليتان باليابان.
ووفق “ساينس دايلي”، كانت طرق البحث السابقة تركز على التقاط المعلومات حول الحركات العامة للشخص الذي يستخدم لغة الإشارة، ولكن نشأت مشاكل الدقة من المعاني المختلفة التي يمكن أن تنشأ بناءً على الاختلافات الدقيقة في شكل اليد، والعلاقة بين موضع اليدين والجسم، لذا، عمل الباحثان كاتسوفومي إينوي وماساكازو إيوامورا مع زملاء، بما في ذلك في المعهد الهندي للتكنولوجيا في روركي، لتحسين دقة التعرف بالذكاء الاصطناعي.
وأضاف الباحثون بيانات مثل تعبيرات اليد والوجه، فضلاً عن معلومات هيكلية عن وضع اليدين بالنسبة للجسم، إلى المعلومات المتعلقة بالحركات العامة للجزء العلوي من جسم الشخص الذي يستخدم لغة الإشارة.
وقال الدكتور إينوي: “لقد تمكنا من تحسين دقة التعرف على لغة الإشارة على مستوى الكلمات بنسبة 10-15% مقارنة بالطرق التقليدية. ونتوقع أن يتم تطبيق الطريقة التي اقترحناها على أي لغة إشارة، ما يؤدي على أمل تحسين التواصل مع الأشخاص الذين يعانون من ضعف الكلام والسمع في مختلف البلدان”.