

Meta เปิดตัวฟีเจอร์ “Audio Translation” ใช้ AI แปลเสีย งและซิงค์ปากอัตโนมัติ
Aug 22
Meta เดินหน้าพัฒนาประสบการณ์การเข้าถึงคอนเทนต์ข้ามภาษาในแอป โดยเปิดตัวฟีเจอร์ Audio Translation ที่ใช้ AI แปลเสียง พร้อมซิงค์การขยับปากให้ตรงกับภาษาใหม่ ทำให้ดูเหมือนกั บว่าคนในวิดีโอกำลังพูดภาษานั้นจริง ๆ

🎙️ Meta AI Translations คืออะไร?
ระบบจะ ใช้เสียงและโทนจริงของครีเอเตอร์ มาสร้างเสียงแปล เพื่อให้ยังคงความเป็นธรรมชาติและ “เหมือนตัวจริง” มากที่สุด
Lip Sync AI จะปรับการขยับปากให้ตรงกับเสียงที่ถูกแปล ทำให้ผู้ชมรู้สึกสมจริงราวกับเจ้าของคอนเทนต์พูดภาษานั้น
ในช่วงเริ่มต้น Meta เปิดให้ใช้งานการแปลอัตโนมัติระหว่าง ภาษาอังกฤษ ↔ ภาษาสเปน ก่อน และจะขยายไปยังภาษาอื่น ๆ ในเร็ว ๆ นี้

⚙️ วิธีใช้งานสำหรับครีเอเตอร์
ครีเอเตอร์สามารถเปิดใช้งานได้ใน Reels Composer โดยกดสวิตช์ “Translate your voice with Meta AI”
สามารถเลือกเปิด/ปิดฟีเจอร์ซิงค์ปากได้
ก่อนเผยแพร่ ครีเอเตอร์สามารถเลือกตรวจสอบและอนุมัติคำแปลใน Professional Dashboard ได้ เพื่อป้องกันความผิดพลาด
เมื่อเผยแพร่แล้ว ผู้ชมจะเห็นคอนเทนต์ในภาษาที่เลือก และได้รับแจ้งว่าคลิปนี้มีการแปลด้วย Meta AI

📌 ข้อจำกัดที่ควรรู้
รองรับผู้พูดได้สูงสุด 2 คนต่อคลิป (ไม่ควรพูดทับกันเพื่อความแม่นยำ)
ควรหลีกเลี่ยงเสียงรบกวนหรือ Background Music ที่ดังเกินไป เพราะจะส่งผลต่อความแม่นยำในการแปล
นอกจากนี้ Meta ก็ย้ำว่าการสร้างผู้ช มใหม่ในภาษาที่ไม่เคยใช้อาจต้องใช้เวลา เหมือนการเริ่มสร้างฐานแฟนใหม่ตั้งแต่ต้น
🎧 เพิ่มเสียงพากย์เองได้สูงสุด 20 แทร็ก
นอกจาก AI Translation แล้ว Meta ยังเปิดให้เพจสามารถอัปโหลดเสียงพากย์ (Dubbed Audio) ของตัวเองได้สูงสุด 20 ภาษาในคลิปเดียว แม้จะไม่มีการซิงค์ปาก แต่ก็ช่วยให้เข้าถึงผู้ชมได้หลายภาษาเช่นกัน
👥 ใครใช้ได้บ้าง?
Facebook: ครีเอเตอร์ที่เปิด Professional Mode และมีผู้ติดตามเกิน 1,000 คน
Instagram: บัญชีสาธารณะในพื้นที่ที่มี Meta AI เปิดให้ใช้งาน
📌 ฟีเจอร์นี้ถือเป็นอีกก้าวสำคัญของที่จะช่วยครีเอเตอร์ ขยายฐานผู้ชมข้ามภาษา โดยไม่ต้องลงทุนทำซับไตเติลหรือจ้างพากย์เสียงเพิ่ม และยังเป็นการยกระดับการแข่งขันกับแพลตฟอร์มวิดีโออื่น ๆ ที่กำลังเร่งเครื่องด้าน AI เช่นกัน





