ปัญญาประดิษฐ์อ่านน้ำเสียงคนได้แล้ว ผลงานอาจารย์จุฬาฯ เปิดให้ดาวน์โหลดฟรี #SootinClaimon.Com

#SootinClaimon.Com : ขอบคุณแหล่งข้อมูล : หนังสือพิมพ์แนวหน้า

https://www.naewna.com/local/577443

ปัญญาประดิษฐ์อ่านน้ำเสียงคนได้แล้ว  ผลงานอาจารย์จุฬาฯ เปิดให้ดาวน์โหลดฟรี

ปัญญาประดิษฐ์อ่านน้ำเสียงคนได้แล้ว ผลงานอาจารย์จุฬาฯ เปิดให้ดาวน์โหลดฟรี

วันพฤหัสบดี ที่ 3 มิถุนายน พ.ศ. 2564, 06.00 น.

คณะวิศวฯ และคณะอักษรฯ จุฬาฯ ร่วมพัฒนา “ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย” ปัญญาประดิษฐ์แยกแยะอารมณ์จากเสียงพูด เปิดให้ดาวน์โหลดฟรี หวังเสริมประสิทธิภาพงานขายและระบบบริการที่ต้องเข้าถึงใจลูกค้า โดยเพิ่มความก้าวหน้าเทคโนโลยีด้านเสียงก้าวขึ้นไปอีกขั้น จากเดิมที่เราคุ้นเคยกับการใช้เสียงพูดเพื่อป้อนข้อมูลหรือออกคำสั่งกับหุ่นยนต์ปัญญาประดิษฐ์ บังคับการทำงานของอุปกรณ์ภายในรถยนต์หรือระบบบ้านอัจฉริยะ โปรแกรมแปลภาษาหรือถอดคำพูดเป็นตัวอักษรโดยใช้เสียง ฯลฯ ตอนนี้ปัญญาประดิษฐ์ได้รับการพัฒนาให้เข้าใจและจำแนกอารมณ์จากเสียงและตอบสนองข้อมูลด้านความรู้สึกของมนุษย์ผู้สื่อสารได้ดียิ่งขึ้น

โมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Recognition Model) ปัญญาประดิษฐ์สุดล้ำโดยอาจารย์จุฬาฯ ที่เปิดให้ผู้สนใจดาวน์โหลดเพื่อใช้งานแล้ววันนี้ เป็นฝีมือการทำงานวิจัยข้ามศาสตร์ระหว่าง อ.ดร.เอกพล ช่วงสุวนิชนักวิชาการด้านวิศวกรรมคอมพิวเตอร์จากคณะวิศวกรรมศาสตร์ จุฬาฯ และ ผศ.ดังกมล ณ ป้อมเพชร พร้อมด้วย อ.ภัสสร์ศุภางค์ คงบำรุง สองนักวิชาการด้านศิลปะการละครจากคณะอักษรศาสตร์ จุฬาฯ

ซึ่งการสร้างปัญญาประดิษฐ์ที่สามารถตีความอารมณ์จากเสียงพูดได้นี้สามารถนำไปพัฒนาต่อยอดได้หลายทาง เช่น ระบบคอลเซ็นเตอร์ที่สามารถประเมินอารมณ์ลูกค้าที่โทรศัพท์เข้ามารับบริการว่ามีอารมณ์เช่นไร โกรธหรือหงุดหงิด แล้วบันทึกความรู้สึกจากน้ำเสียงตลอดการพูดคุยเป็นสถิติได้ว่ามีลูกค้าที่ไม่พอใจการให้บริการจำนวนเท่าใด หรือสร้างเป็นระบบปัญญาประดิษฐ์ที่สามารถแสดงอารมณ์ขณะการสื่อสารกับผู้ใช้ ได้อย่างเป็นธรรมชาติมากขึ้น แทนที่จะพูดด้วยน้ำเสียงเรียบๆ แบบโมโนโทนที่เราคุ้นเคย

สำหรับการพัฒนา ก่อนจะทำโมเดลจำแนกอารมณ์ จำเป็นต้องมีคลังข้อมูลเสียงเสียก่อน และตรงนี้เองที่ศาสตร์การละครเข้ามาช่วยได้เป็นอย่างดีในการทำชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Dataset) นักแสดงจำนวน 200 คน ทั้งหญิงและชายเป็นต้นเสียงสื่ออารมณ์ 5 แบบ ได้แก่ อารมณ์โกรธ เศร้า หงุดหงิด สุข และน้ำเสียงยามปกติ โดยนักแสดงแต่ละคนจะบันทึกเสียงที่แสดงอารมณ์ทั้ง 5 อารมณ์ แบบ พูดเดี่ยว และแบบโต้ตอบเป็นบทสนทนา โดยเสียงที่นำไปใช้งานได้จะต้องเป็นเสียงที่แสดงอารมณ์จริงเหมือนที่เกิดขึ้นในชีวิตประจำวันของเรา ไม่ใช่การใช้เสียงที่ล้นเกินกว่าอารมณ์ในความเป็นจริง ดังนั้นจึงต้องมีทีมกำกับการแสดงช่วยแนะนำเพื่อให้นักแสดงรู้สึกตามอารมณ์นั้นๆ อย่างแท้จริง นอกจากนี้เมื่อต้องเปลี่ยนเสียงสำหรับบันทึกอารมณ์อีกแบบ แต่อารมณ์ของนักแสดงบางคนยังคงติดค้างกับอารมณ์เดิมอยู่ ฝ่ายกำกับการแสดงจะทำหน้าที่กำกับอารมณ์ใหม่กระทั่งนักแสดงสื่ออารมณ์นั้นออกมาในน้ำเสียงดูสมจริงที่สุด

ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย และโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทยเปิดให้ทดลองใช้ฟรีแล้ว โดยดาวน์โหลดผ่านเว็บไซต์สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AI Research) https://airesearch.in.th/releases/speech-emotion-dataset/

Leave a comment