รวมฟีเจอร์ส่งเสริมการเข้าถึงอย่างเท่าเทียมสำหรับผู้พิการจาก Meta
ปัจจุบัน มีการประมาณการณ์ว่ามีผู้ระบุว่าตนมีความพิการมากกว่า 1.3 พันล้านคนทั่วโลก การสร้างแอปที่มอบการเข้าถึงให้กับผู้คนได้อย่างครอบคลุมโดยเปิดกว้างสำหรับคนทุกกลุ่ม รวมถึงผู้มีความบกพร่องด้านร่างกายหรือกลุ่มผู้พิการ จึงเป็นหนึ่งในความมุ่งมั่นระยะยาวที่ Meta ให้คุณค่าสูงสุด
โดยใช้ประโยชน์จากหลากหลายเครื่องมือและเทคโนโลยีที่ Meta พัฒนาขึ้นมาเอง ซึ่งรวมไปถึงโมเดลปัญญาประดิษฐ์หรือ AI ในการสร้างแพลตฟอร์มและการบริการที่เข้าถึงได้อย่างเท่าเทียมและครอบคลุมมากยิ่งขึ้น
นอกจากนี้ Meta ยังได้ร่วมเป็นส่วนหนึ่งในการเฉลิมฉลองวันตระหนักรู้ถึงการเข้าถึงอย่างเท่าเทียม หรือ Global Accessibility Awareness Day (GAAD) ในเดือนพฤษภาคมของทุก ๆ ปี และมีความภาคภูมิใจที่ได้เป็นหนึ่งในผู้ร่วมสนับสนุนแรกเริ่มของมูลนิธิ GAAD และเป็นหนึ่งในองค์กรแรก ๆ ที่ให้คำมั่นสัญญาเกี่ยวกับการส่งเสริมการเข้าถึงเทคโนโลยีดิจิทัลอย่างเท่าเทียม (GAAD Pledge)
ปัจจุบัน Meta ยังคงมีส่วนร่วมเฉลิมฉลองวัน GAAD อย่างต่อเนื่องในทุกปีผ่านกิจกรรม การประกาศ และงานต่าง ๆ เพื่อสร้างความตระหนักรู้เกี่ยวกับผู้พิการทั้งในและนอกบริษัท ที่ใช้งานเครื่องมือและผลิตภัณฑ์ของ Meta ในการสร้างสรรค์ เป็นส่วนช่วย และเชื่อมต่อกับคอมมูนิตี้ของพวกเขาได้
เทคโนโลยีและฟีเจอร์ใหม่ล่าสุดจนถึงปัจจุบันที่ Meta สร้างขึ้นเพื่อสนับสนุนการเข้าถึงอย่างเท่าเทียมทั่วโลก ประกอบไปด้วย
ระบบสร้างคำบรรยายอัตโนมัติบนวิดีโอ Instagram & Facebook
ระบบสร้างคำบรรยายอัตโนมัติด้วยเทคโนโลยี AI ถูกนำมาใช้งานบนวิดีโอฟีดของ Instagram ทั้งบนระบบปฏิบัติการ iOS และ Android พร้อมใช้งานแล้วในภาษาอังกฤษ สเปน โปรตุเกส ฝรั่งเศส อาหรับ เวียดนาม อิตาลี เยอรมัน ตุรกี รัสเซีย ไทย ตากาล็อก อูรดู มาเลย์ ฮินดี และญี่ปุ่น
โดยภายในระยะเวลาเพียงหนึ่งเดือนหลังจากฟีเจอร์ดังกล่าวเปิดตัว มีวิดีโอจำนวนกว่า 140 ล้านวิดีโอที่ถูกสร้างขึ้นพร้อมคำบรรยายอัตโนมัติ โดยได้รับการยกย่องว่าเป็นฟีเจอร์ที่ประสบความสำเร็จเป็นอย่างยิ่ง ครีเอเตอร์ยังสามารถปิดการใช้งานคำบรรยายเมื่อไรก็ได้ ในขณะที่ผู้ชมสามารถเลือกเปิดหรือปิดคำบรรยายได้ผ่านปุ่มควบคุมบนหน้าจอ
การเขียนตามคำบอกและการอ่าน (Dictation and reading)
Meta ได้เปิดตัว Lexical ซึ่งเป็นชุดคำสั่ง JavaScript ที่ถูกสร้างขึ้นเพื่อพัฒนาการแก้ไขตัวอักษรบน Facebook, WhatsApp, Messenger, และ Workplace ไปเมื่อปีที่แล้ว โดยเป็นเทคโนโลยีที่มุ่งสร้างการเข้าถึงอย่างเท่าเทียมเป็นสำคัญ
โดยชุดคำสั่งใหม่นี้ ช่วยให้ผู้คนสามารถแสดงความคิดเห็นในรูปแบบตัวอักษรได้ผ่านการเขียนตามคำบอก (Dictation) จึงอำนวยความสะดวกให้กับผู้พิการทางกายภาพ ทั้งยังสามารถช่วยอ่านได้แบบอักษรต่ออักษร ซึ่งเป็นฟีเจอร์ที่ไม่เคยมีมาก่อนในระบบก่อนหน้านี้ หลังจากนั้น Meta ได้นำ Lexical เข้าสู่โอเพนซอร์ซเพื่อให้ผู้คนทั่วโลกสามารถใช้ประโยชน์จากการพัฒนาชุดคำสั่งนี้ได้อย่างอิสระอีกด้วย
Meta ได้สร้างประวัติศาสตร์อีกครั้งเมื่อเร็ว ๆ นี้ ด้วยการฉลองการสร้างสรรค์ avatars กว่า 1 พันล้านตัวตนบนแพลตฟอร์มต่าง ๆ ภายในเครือของบริษัท นับตั้งแต่การเปิดตัวในปี พ.ศ. 2563 และเพื่อสนับสนุนให้ผู้คนได้แสดงออกถึงตัวตนได้อย่างเต็มที่ ตลอดเวลาที่ผ่านมา ดีไซน์ใหม่ ๆ ถูกออกแบบขึ้นอย่างต่อเนื่องเพื่อเพิ่มทางเลือกในการแสดงออกให้มีความหลากหลายมากขึ้น เช่น เครื่องช่วยฟังแบบครอบหูและประสาทหูเทียม
นอกจากนี้ ยังรวมถึงตัวเลือกรูปร่างใบหน้า โทนสีผิว และท่าทางการแสดงออกที่เพิ่มขึ้น เพื่อสร้างสรรค์ภาพตัวแทนที่หลากหลายยิ่งขึ้น และส่งเสริมการอยู่ร่วมกันอย่างเท่าเทียม นอกจากนี้ สติ๊กเกอร์รถเข็น (wheelchairs) ยังถูกเพิ่มบนแพลตฟอร์มทั้งหมดในเครือของ Meta เพื่อทำหน้าที่เป็นตัวแทนของผู้ใช้บนโลกออนไลน์ได้อย่างถูกต้องที่สุด
สติ๊กเกอร์บน Facebook และ Messenger
Meta ได้เพิ่มคำอธิบายรูปภาพบนเว็บไซต์ (Alternative Text หรือ Alt Text) สำหรับสติ๊กเกอร์กว่า 10,000 รายการบน Facebook และ Messenger ซึ่งช่วยให้ผู้ใช้ที่มีความบกพร่องทางการมองเห็นสามารถเข้าใจและใช้งานสติ๊กเกอร์เหล่านี้เมื่อติดต่อสื่อสารกับผู้อื่นได้
ทีมงานวิจัย Reality Labs
Meta กำลังทำการศึกษาและวิจัยเกี่ยวกับการพัฒนาคุณภาพเสียงให้ขึ้น เพื่อสร้างการแสดงตัวตนและการรับรู้ที่สมจริงมากยิ่งขึ้นในเทคโนโลยีโลกเสมือนจริง ทั้ง AR และ VR ซึ่งช่วยให้ผู้ใช้ได้ยินเสียงชัดเจนยิ่งขึ้นในสภาพแวดล้อมที่เต็มไปด้วยเสียงรบกวน โดยไม่มีความเสี่ยงในการเกิดความเสียหายต่อการได้ยินของพวกเขา ในขณะนี้ ทีมวิจัยของ Meta กำลังสำรวจวิธีการใช้งานเทคโนโลยี AI เพื่อเข้ารหัสเสียงและนำเสนอผ่านคำบรรยายแทนเสียงแบบปิด (Closed Captioning) สำหรับผู้ใช้ที่มีความบกพร่องทางการได้ยิน โดยทางทีมคาดหวังว่าจะมีผลลัพธ์ที่น่าตื่นเต้นเร็ว ๆ นี้
โครงการ No Language Left Behind หรือ NLLB
เพื่อช่วยให้ผู้คนเชื่อมต่อกันได้ดียิ่งขึ้นในปัจจุบัน และเป็นส่วนหนึ่งของเมตาเวิร์สในอนาคต นักวิจัยด้านเทคโนโลยี AI จาก Meta ได้พัฒนาเทคโนโลยีที่ถือเป็นความก้าวหน้าครั้งสำคัญในช่วงปลายปี พ.ศ. 2565 ด้วยการสร้างโมเดล AI อันล้ำสมัยที่มีชื่อว่า NLLB-200 หรือโครงการ No Language Left Behind หรือ NLLB ซึ่งมีความสามารถในการแปล 200 ภาษาด้วยระดับความแม่นยำที่น่าทึ่ง โดยโมเดล AI ที่ใช้ระบบปฏิบัติการที่มีโค้ดเปิดเหล่านี้สามารถแปลภาษาที่ได้รับการตรวจสอบและมีคุณภาพสูงถึง 200 ภาษา ซึ่งรวมถึงภาษาที่มีผู้ใช้จำนวนน้อย เช่น ภาษาอัสตูเรียส ภาษาลูกันดา ภาษาอูรดู และอีกหลากหลายภาษาที่ใช้ในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่น ภาษาไทย ภาษาลาว ภาษาเขมร ภาษาชวา และอื่น ๆ
โดยโครงการ NLLB มีเป้าหมายในการเปิดโอกาสให้ผู้คนได้เข้าถึงและแชร์เนื้อหาบนเว็บไซต์ในภาษาแม่ของตนเอง รวมถึงการติดต่อสื่อสารกับผู้อื่น ไม่ว่าจะอยู่ที่ที่ใด หรือสะดวกในการใช้ภาษาใดก็ตาม โมเดลประมวลผลภาษาที่มีขนาดใหญ่เช่นนี้เป็นหนึ่งในโมเดล AI อันดับแรก ๆ ที่ถูกพัฒนาขึ้นโดยซุปเปอร์คอมพิวเตอร์ AI Research SuperCluster หรือ RSC ของ Meta
เรียนรู้เพิ่มเติมเกี่ยวกับการดำเนินงานเกี่ยวกับเทคโนโลยีที่ช่วยในการเข้าถึงของ Meta ได้ที่นี่ https://web.facebook.com/accessibility
เรียนรู้เพิ่มเติมเกี่ยวกับวันตระหนักรู้ถึงการเข้าถึงอย่างเท่าเทียม หรือ Global Accessibility Awareness Day (GAAD) ได้ที่นี่ https://accessibility.day
ขอบคุณ... https://www.sanook.com/hitech/1580599/ (ขนาดไฟล์: 261127)