หลังจากเราทำความเข้าใจภาพรวมของ Azure Text Moderation และรู้จักเป้าหมายของกลุ่มคำ Profanity ไปแล้ว (ใครที่ยังไม่ได้อ่านทำความเข้าใจ ให้ไปอ่านตามลิ้งค์ทั้ง 2 ตัวก่อน จะได้มาอ่านต่อส่วนนี้ได้)
วันนี้เราจะมาดูวิธีการแยกแยะกลุ่มคำดังกล่าว ในมุมมองของ Text Moderation API กัน หรือที่เรียกว่าการทำ Classification นั่นเอง
Classification: การจัดประเภทกลุ่มคำสุ่มเสี่ยง
ใน Azure Text Moderation นั้น จะถูกจำแนกออกเป็น 3 ประเภท (Category) ตามลักษณะดังนี้
- Category ที่ 1: กลุ่มภาษาที่แสดงออกเรื่องเพศอย่างโจ่งแจ้ง (Sexually Explicit or adult)
- Category ที่ 2: กลุ่มภาษาที่ส่อไปในทางเรื่องเพศ (Sexually Suggestive or mature)
- Category ที่ 3: กลุ่มภาษาที่พิจารณาว่าก้าวร้าว รุนแรง
ซึ่งแบบ Classification นี้ จะแตกต่างจากการค้นหาคำเฉพาะ แบบ Profanity ที่ชี้รายตัว เพราะจะแสดงเป็นระดับคะแนนของทั้งข้อความแทน โดยวิเคราะห์และส่งข้อมูลกลับมาในรูปแบบ JSON ด้านล่าง
"Classification": {
"ReviewRecommended": true,
"Category1": {
"Score": 0.99756889843889822
},
"Category2": {
"Score": 0.12747249007225037
},
"Category3": {
"Score": 0.98799997568130493
}
}
- ReviewRecommended เป็นค่าจริงเท็จ ว่าควรให้มนุษย์ หรือผู้ดูแลเข้ามารีวิวไหม
- Category 1, 2, 3: เป็นระดับคะแนน 0 ถึง 1 ยิ่งค่าเข้าใกล้ 1 มากขึ้น ยิ่งมีแนวโน้มว่าข้อความดังกล่าวจะมีคำจัดอยู่ตามกลุ่มนั้นๆ
ดังนั้นคะแนนยิ่งน้อย ข้อความยิ่งปลอดภัยนั่นเอง
และเราจะเริ่มเห็นว่า การใช้งานในส่วนของ Profanity และ Classification นั้น มีเป้าหมายแตกต่างกัน
- แบบ Profanity คือการหาแบบชี้คำเจาะจง
- แบบ Classification คือให้ Text Moderation API คำนวนความสุ่มเสี่ยงของข้อความ และให้คำแนะนำว่าควรให้ผู้ดูแลเข้ามาดูหรือไม่
อย่าลืมติดตามอัพเดตเรื่องใหม่ๆ ได้ตามช่องทางที่โค้ชพลเตรียมไว้ให้ด้านล่าง
- ติดตามจากแฟนเพจ Nextflow
- กดติดตามคลิปใหม่ๆ Subscribe YouTube Channel ของพลได้เลย
- โทรติดต่อบริการจัดอบรม 083-071-3373 คลิกโทรผ่านมือถือได้เลย
- สอบถามผ่านทาง LINE คลิก
- สอบถามผ่านทาง Facebook คลิก
อ้างอิง – Microsoft Docs: Text Moderation