Apple ได้พูดถึง Machine Learning ที่ช่วยให้อุปกรณ์ตรวจจับคำสั่งเสียง Hey Siri ผ่านกระบวนการอันซับซ้อนที่ผู้ใช้งานทั่วไปยากจะเข้าใจ ทุกอย่างจะเริ่มต้นจากไมโครโฟนของ iPhone และ Apple Watch ที่จะทำหน้าที่แปลงเสียงของผู้ใช้ ให้อยู่ในรูปแบบคลื่นที่อัตรา 16,000 ต่อวินาที ก่อนที่ตัวตรวจจับของอุปกรณ์ จะตัดสินใจว่าเสียงที่ผู้ใช้งานพูดออกมา เป็นความตั้งใจเรียก Siri หรือไม่
คลื่นเสียงที่รอดผ่านไมโครโฟนเข้ามา จะเข้าสู่ขั้นตอนการวิเคราะห์เสียงด้วย Deep Neural Network ซึ่งจะช่วยให้อุปกรณ์รับคำสั่งเสียง Hey Siri ได้อย่างถูกต้อง ไม่ว่าผู้ใช้งานจะพูด Hey Siri ในสถานที่เงียบ หรือมีเสียงอื่นรบกวน และเพื่อป้องกันการเปิด Siri โดยไม่ได้ตั้งใจ ซอฟต์แวร์ของ Apple จึงมีความยืดหยุ่น และมีหลักเกณฑ์ของตัวเอง ที่จะตัดสินใจว่า เจ้าของอุปกรณ์ตั้งใจใช้คำสั่ง Hey Siri หรือไม่
Hey Siri ใน iPhone จะรอรับคำสั่งเสียงอยู่ตลอดเวลา และสามารถเรียกใช้งานได้ทันที โดยไม่ต้องมีการสัมผัสกับอุปกรณ์ และไม่ทำให้เปลืองพลังงานของแบตเตอรี่ แต่สำหรับ Apple Watch มีวิธีการเรียกที่ต่างออกไป โดยจะทำงานร่วมกับ motion coprocessor เพื่อตรวจจับว่าผู้ใช้งานได้ยกข้อมือขึ้นมาด้วยหรือไม่ จึงสามารถเรียกคำสั่ง Hey Siri ได้ หรืออีกวิธีคือแตะหน้าจอ
ทำไมต้อง Hey Siri? Siri มีคำที่คล้ายคลึงกันน้อยมากในภาษาอังกฤษแบบอเมริกัน เช่น Serious หรือ Syria และถ้าออกเสียงอย่างชัดเจนก็มีโอกาสน้อยมากที่อุปกรณ์จะเกิดข้อผิดพลาดต่อการตอบสนองคำสั่งเสียง
ที่มา – 9to5mac
http://www.flashfly.net/wp/?p=196947