รวมฟีเจอร์ส่งเสริมการเข้าถึงอย่างเท่าเทียมสำหรับผู้พิการจาก Meta

รวมฟีเจอร์ส่งเสริมการเข้าถึงอย่างเท่าเทียมสำหรับผู้พิการจาก Meta

ปัจจุบัน มีการประมาณการณ์ว่ามีผู้ระบุว่าตนมีความพิการมากกว่า 1.3 พันล้านคนทั่วโลก การสร้างแอปที่มอบการเข้าถึงให้กับผู้คนได้อย่างครอบคลุมโดยเปิดกว้างสำหรับคนทุกกลุ่ม รวมถึงผู้มีความบกพร่องด้านร่างกายหรือกลุ่มผู้พิการ จึงเป็นหนึ่งในความมุ่งมั่นระยะยาวที่ Meta ให้คุณค่าสูงสุด

โดยใช้ประโยชน์จากหลากหลายเครื่องมือและเทคโนโลยีที่ Meta พัฒนาขึ้นมาเอง ซึ่งรวมไปถึงโมเดลปัญญาประดิษฐ์หรือ AI ในการสร้างแพลตฟอร์มและการบริการที่เข้าถึงได้อย่างเท่าเทียมและครอบคลุมมากยิ่งขึ้น

นอกจากนี้ Meta ยังได้ร่วมเป็นส่วนหนึ่งในการเฉลิมฉลองวันตระหนักรู้ถึงการเข้าถึงอย่างเท่าเทียม หรือ Global Accessibility Awareness Day (GAAD) ในเดือนพฤษภาคมของทุก ๆ ปี และมีความภาคภูมิใจที่ได้เป็นหนึ่งในผู้ร่วมสนับสนุนแรกเริ่มของมูลนิธิ GAAD และเป็นหนึ่งในองค์กรแรก ๆ ที่ให้คำมั่นสัญญาเกี่ยวกับการส่งเสริมการเข้าถึงเทคโนโลยีดิจิทัลอย่างเท่าเทียม (GAAD Pledge)

ปัจจุบัน Meta ยังคงมีส่วนร่วมเฉลิมฉลองวัน GAAD อย่างต่อเนื่องในทุกปีผ่านกิจกรรม การประกาศ และงานต่าง ๆ เพื่อสร้างความตระหนักรู้เกี่ยวกับผู้พิการทั้งในและนอกบริษัท ที่ใช้งานเครื่องมือและผลิตภัณฑ์ของ Meta ในการสร้างสรรค์ เป็นส่วนช่วย และเชื่อมต่อกับคอมมูนิตี้ของพวกเขาได้

เทคโนโลยีและฟีเจอร์ใหม่ล่าสุดจนถึงปัจจุบันที่ Meta สร้างขึ้นเพื่อสนับสนุนการเข้าถึงอย่างเท่าเทียมทั่วโลก ประกอบไปด้วย

ระบบสร้างคำบรรยายอัตโนมัติบนวิดีโอ Instagram & Facebook

ระบบสร้างคำบรรยายอัตโนมัติด้วยเทคโนโลยี AI ถูกนำมาใช้งานบนวิดีโอฟีดของ Instagram ทั้งบนระบบปฏิบัติการ iOS และ Android พร้อมใช้งานแล้วในภาษาอังกฤษ สเปน โปรตุเกส ฝรั่งเศส อาหรับ เวียดนาม อิตาลี เยอรมัน ตุรกี รัสเซีย ไทย ตากาล็อก อูรดู มาเลย์ ฮินดี และญี่ปุ่น

โดยภายในระยะเวลาเพียงหนึ่งเดือนหลังจากฟีเจอร์ดังกล่าวเปิดตัว มีวิดีโอจำนวนกว่า 140 ล้านวิดีโอที่ถูกสร้างขึ้นพร้อมคำบรรยายอัตโนมัติ โดยได้รับการยกย่องว่าเป็นฟีเจอร์ที่ประสบความสำเร็จเป็นอย่างยิ่ง ครีเอเตอร์ยังสามารถปิดการใช้งานคำบรรยายเมื่อไรก็ได้ ในขณะที่ผู้ชมสามารถเลือกเปิดหรือปิดคำบรรยายได้ผ่านปุ่มควบคุมบนหน้าจอ

การเขียนตามคำบอกและการอ่าน (Dictation and reading)

Meta ได้เปิดตัว Lexical ซึ่งเป็นชุดคำสั่ง JavaScript ที่ถูกสร้างขึ้นเพื่อพัฒนาการแก้ไขตัวอักษรบน Facebook, WhatsApp, Messenger, และ Workplace ไปเมื่อปีที่แล้ว โดยเป็นเทคโนโลยีที่มุ่งสร้างการเข้าถึงอย่างเท่าเทียมเป็นสำคัญ

โดยชุดคำสั่งใหม่นี้ ช่วยให้ผู้คนสามารถแสดงความคิดเห็นในรูปแบบตัวอักษรได้ผ่านการเขียนตามคำบอก (Dictation) จึงอำนวยความสะดวกให้กับผู้พิการทางกายภาพ ทั้งยังสามารถช่วยอ่านได้แบบอักษรต่ออักษร ซึ่งเป็นฟีเจอร์ที่ไม่เคยมีมาก่อนในระบบก่อนหน้านี้ หลังจากนั้น Meta ได้นำ Lexical เข้าสู่โอเพนซอร์ซเพื่อให้ผู้คนทั่วโลกสามารถใช้ประโยชน์จากการพัฒนาชุดคำสั่งนี้ได้อย่างอิสระอีกด้วย

Meta ได้สร้างประวัติศาสตร์อีกครั้งเมื่อเร็ว ๆ นี้ ด้วยการฉลองการสร้างสรรค์ avatars กว่า 1 พันล้านตัวตนบนแพลตฟอร์มต่าง ๆ ภายในเครือของบริษัท นับตั้งแต่การเปิดตัวในปี พ.ศ. 2563 และเพื่อสนับสนุนให้ผู้คนได้แสดงออกถึงตัวตนได้อย่างเต็มที่ ตลอดเวลาที่ผ่านมา ดีไซน์ใหม่ ๆ ถูกออกแบบขึ้นอย่างต่อเนื่องเพื่อเพิ่มทางเลือกในการแสดงออกให้มีความหลากหลายมากขึ้น เช่น เครื่องช่วยฟังแบบครอบหูและประสาทหูเทียม

นอกจากนี้ ยังรวมถึงตัวเลือกรูปร่างใบหน้า โทนสีผิว และท่าทางการแสดงออกที่เพิ่มขึ้น เพื่อสร้างสรรค์ภาพตัวแทนที่หลากหลายยิ่งขึ้น และส่งเสริมการอยู่ร่วมกันอย่างเท่าเทียม นอกจากนี้ สติ๊กเกอร์รถเข็น (wheelchairs) ยังถูกเพิ่มบนแพลตฟอร์มทั้งหมดในเครือของ Meta เพื่อทำหน้าที่เป็นตัวแทนของผู้ใช้บนโลกออนไลน์ได้อย่างถูกต้องที่สุด

สติ๊กเกอร์บน Facebook และ Messenger

Meta ได้เพิ่มคำอธิบายรูปภาพบนเว็บไซต์ (Alternative Text หรือ Alt Text) สำหรับสติ๊กเกอร์กว่า 10,000 รายการบน Facebook และ Messenger ซึ่งช่วยให้ผู้ใช้ที่มีความบกพร่องทางการมองเห็นสามารถเข้าใจและใช้งานสติ๊กเกอร์เหล่านี้เมื่อติดต่อสื่อสารกับผู้อื่นได้

ทีมงานวิจัย Reality Labs

Meta กำลังทำการศึกษาและวิจัยเกี่ยวกับการพัฒนาคุณภาพเสียงให้ขึ้น เพื่อสร้างการแสดงตัวตนและการรับรู้ที่สมจริงมากยิ่งขึ้นในเทคโนโลยีโลกเสมือนจริง ทั้ง AR และ VR ซึ่งช่วยให้ผู้ใช้ได้ยินเสียงชัดเจนยิ่งขึ้นในสภาพแวดล้อมที่เต็มไปด้วยเสียงรบกวน โดยไม่มีความเสี่ยงในการเกิดความเสียหายต่อการได้ยินของพวกเขา ในขณะนี้ ทีมวิจัยของ Meta กำลังสำรวจวิธีการใช้งานเทคโนโลยี AI เพื่อเข้ารหัสเสียงและนำเสนอผ่านคำบรรยายแทนเสียงแบบปิด (Closed Captioning) สำหรับผู้ใช้ที่มีความบกพร่องทางการได้ยิน โดยทางทีมคาดหวังว่าจะมีผลลัพธ์ที่น่าตื่นเต้นเร็ว ๆ นี้

โครงการ No Language Left Behind หรือ NLLB

เพื่อช่วยให้ผู้คนเชื่อมต่อกันได้ดียิ่งขึ้นในปัจจุบัน และเป็นส่วนหนึ่งของเมตาเวิร์สในอนาคต นักวิจัยด้านเทคโนโลยี AI จาก Meta ได้พัฒนาเทคโนโลยีที่ถือเป็นความก้าวหน้าครั้งสำคัญในช่วงปลายปี พ.ศ. 2565 ด้วยการสร้างโมเดล AI อันล้ำสมัยที่มีชื่อว่า NLLB-200 หรือโครงการ No Language Left Behind หรือ NLLB ซึ่งมีความสามารถในการแปล 200 ภาษาด้วยระดับความแม่นยำที่น่าทึ่ง โดยโมเดล AI ที่ใช้ระบบปฏิบัติการที่มีโค้ดเปิดเหล่านี้สามารถแปลภาษาที่ได้รับการตรวจสอบและมีคุณภาพสูงถึง 200 ภาษา ซึ่งรวมถึงภาษาที่มีผู้ใช้จำนวนน้อย เช่น ภาษาอัสตูเรียส ภาษาลูกันดา ภาษาอูรดู และอีกหลากหลายภาษาที่ใช้ในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่น ภาษาไทย ภาษาลาว ภาษาเขมร ภาษาชวา และอื่น ๆ

โดยโครงการ NLLB มีเป้าหมายในการเปิดโอกาสให้ผู้คนได้เข้าถึงและแชร์เนื้อหาบนเว็บไซต์ในภาษาแม่ของตนเอง รวมถึงการติดต่อสื่อสารกับผู้อื่น ไม่ว่าจะอยู่ที่ที่ใด หรือสะดวกในการใช้ภาษาใดก็ตาม โมเดลประมวลผลภาษาที่มีขนาดใหญ่เช่นนี้เป็นหนึ่งในโมเดล AI อันดับแรก ๆ ที่ถูกพัฒนาขึ้นโดยซุปเปอร์คอมพิวเตอร์ AI Research SuperCluster หรือ RSC ของ Meta

เรียนรู้เพิ่มเติมเกี่ยวกับการดำเนินงานเกี่ยวกับเทคโนโลยีที่ช่วยในการเข้าถึงของ Meta ได้ที่นี่ https://web.facebook.com/accessibility

เรียนรู้เพิ่มเติมเกี่ยวกับวันตระหนักรู้ถึงการเข้าถึงอย่างเท่าเทียม หรือ Global Accessibility Awareness Day (GAAD) ได้ที่นี่ https://accessibility.day

ขอบคุณ... https://www.sanook.com/hitech/1580599/ (ขนาดไฟล์: 234485)

ที่มา: sanook.com/มูลนิธิพัฒนาคนพิการไทย 23 พ.ค.66
วันที่โพสต์: 23/05/2566 เวลา 14:13:06 ดูภาพสไลด์โชว์ รวมฟีเจอร์ส่งเสริมการเข้าถึงอย่างเท่าเทียมสำหรับผู้พิการจาก Meta