iOS 14 รวมถึง macOS Big Sur ช่วยให้นักพัฒนาซอฟต์แวร์สามารถนำความสามารถในการตรวจจับมือและร่างกายไปใช้กับแอพพลิเคชั่นของพวกเขาได้ เพื่อช่วยให้ผู้ใช้งานสามารถโต้ตอบกับ iPhone หรือ Mac โดยไม่ต้องสัมผัสกับอุปกรณ์
Apple แนะนำเฟรมเวิร์ก Vision ในงาน WWDC 2020 เมื่อนำไปใช้กับแอพพลิเคชั่น จะช่วยให้อุปกรณ์สามารถตรวจจับการเคลื่อนไหวของมือและร่างกาย เพื่อควบคุมหรือโต้ตอบกับอุปกรณ์ ตัวอย่างเช่นแอพฟิตเนส จะสามารถติดตามการบริหารร่างกายของผู้ใช้งานว่าอยู่ในท่าทางที่ถูกต้องเหมาะสมหรือไม่ หรือแอพแก้ไขภาพหรือวิดโอ ก็สามารถค้นหาภาพถ่ายหรือวิดีโอ ด้วยการแสดงท่าทางได้ (อยากหาภาพที่มีชูมือ 2 นิ้ว ก็ให้ชูมือ 2 นิ้วเป็นตัวอย่าง)
เฟรมเวิร์ก Vision ยังนำไปใช้กับแอพกล้องได้ เช่น แสดงอีโมจิหรือสติกเกอร์ซ้อนทับมือที่กำลังทำชู 2 นิ้ว หรือจีบนิ้วโป้งกับนิ้วชี้เป็นสัญลักษณ์ OK รวมไปถึงการสั่งถ่ายภาพด้วยท่าทาง โดยไม่ต้องแตะปุ่มชัตเตอร์ นอกจากนี้ Apple ยังสาธิตการวาดเขียนบนหน้าจอโดยไม่ต้องสัมผัส เพียงจีบนิ้วมือแล้ววาดไปบนอากาศ
ที่มา – MacRumors
https://www.flashfly.net/wp/305397