ผลวิจัยพบระบบ AI ครอปรูปของ Twitter อคติทางเพศและสีผิว

Twitter แพลตฟอร์มสนทนาทางโซเชียลมีเดียระดับโลกได้เผยแพร่รายงานการวิจัยฉบับใหม่ ระบุว่าเครื่องมือครอปรูปที่ทำงานโดยอัลกอริทึมนั้นเหยียดสีผิว หลังจากที่ระบบครอปรูปนั้นได้ตัดภาพคนผิวดำและผู้ชายออกไป ทั้งนี้ทางบริษัทเสริมว่า “วิธีการครอปรูปเป็นสิ่งที่มนุษย์นั้นตัดสินใจได้ดีที่สุด”

twitter , ai

โดยรายงานที่ศึกษาโดยนักวิจัยด้าน Machine Learning ทั้ง 3 ท่านได้ทำขึ้นมาหลังจากที่ผู้ใช้บัญชีทาง Twitter ได้ออกมาวิจารณ์ว่าระบบการครอปภาพอัตโนมัติของ Twitter มีความลำเอียง แสดงให้คนเห็นเฉพาะคนผิวขาว และตัดภาพคนที่มีผิวดำออกไป ผลลัพธ์ของงานวิจัยได้ปรากฎว่าระบบอัลกอริทึมเลือกครอปรูปแสดงผลภาพผู้หญิงได้ดีกว่าผู้ชาย 8% และแสดงผลภาพของคนผิวขาวได้ดีกว่าคนผิวดำ 4% 

ทั้งนี้ ในรายงานวิจัยได้อ้างอิงปัจจัยที่เป็นไปได้หลายประการ ซึ่งรวมไปถึงปัญหาที่เกี่ยวข้องกับภาพหลังของรูป และสีตา โดยย้ำว่าเหตุผลดังกล่าวไม่ใช่ข้ออ้างแต่อย่างใด 

นอกจากนี้ ทางนักวิจัยได้จับข้อสังเกตอีกประการหนึ่งด้วยว่า ระบบการครอปภาพของอัลกอริทึมยังเน้นไปที่การครอปพรีวิวให้เห็นรูปร่างของผู้หญิงมากกว่าในส่วนของศีรษะของผู้หญิง ชี้ให้เห็นถึงผู้สร้างที่มีทัศนะการจับจ้องแบบผู้ชาย (Male Gaze) ถือได้ว่ารายงานนี้เป็นอีกหนึ่งความท้าทายของปัญญาประดิษฐ์ที่บ่งชี้ถึงผู้สร้างว่าอาจมีอคติทางเพศและสีผิวได้ 

เพื่อแก้ปัญหาดังกล่าว Twitter จีงพยายามเปลี่ยนฟีเจอร์แสดงรูปภาพแบบเต็มขนาดบนแพลตฟอร์มในระบบปฏิบัติการของสมาร์ทโฟน แทนที่จะครอปรูปเหมือนในอดีต เพื่อลดความอคติที่เกิดขึ้นจากระบบอัลกอริทึมให้ได้มากที่สุด

ไม่ใช่แค่เพียง Twitter ที่ประสบกับประเด็นอคติทางเพศและสีผิว ก่อนหน้านี้ Google ก็เกิดความผิดพลาดทางเทคนิคในการใช้อัลกอริทึมระบุอุปกรณ์ในรูปภาพ โดยระบุว่าอุปกรณ์ที่คนผิวดำถือเป็นอาวุธปืน ขณะเดียวกัน เมื่อคนผิวขาวถืออุปกรณ์เช่นเดียวกันกับคนผิวดำ Google กลับระบุว่าเป็นอุปกรณ์อิเล็กทรอนิกส์ จากเหตุการณ์ครั้งนี้ทำให้ Google ถูกโจมตีอย่างหนัก และประเด็นอคติทางสีผิวของปัญญาประดิษฐ์เป็นที่พูดถึงในวงกว้างมากขึ้น  

นอกจากนี้ก่อนหน้าเมื่อช่วงเดือนธันวาคม 2563 ที่ผ่านมา Timnit Gebru นักวิจัยด้านจริยธรรมของปัญญาประดิษฐ์ (AI ethics ) ได้ถูกไล่ออกจาก Google และยังถูกสั่งถอนงานวิจัยออก เนื่องจากก่อนหน้านี้ Gebru ได้พยายามที่จะตีพิมพ์งานวิจัยชิ้นใหม่ที่ได้มีการตั้งคำถามเกี่ยวกับความเสี่ยงและแนวทางการแก้ไข หาก AI มีความผิดพลาดกรณีที่มนุษย์ได้ให้ความไว้ใจ จากการที่ปัญญาประดิษฐ์เหล่านี้มันสามารถประมวลภาษาธรรมชาติได้ดีขึ้นและมีขนาดใหญ่ขึ้นอย่างต่อเนื่อง ซึ่ง Timnit Gebru เธอมีผลงานสร้างชื่อจากงานวิจัยที่ได้ร่วมทำกับ Joy Buolamwin นักวิจัยของ Microsoft เมื่อปี 2018 ถึงกรณีอคติของ AI ที่มีต่อการจดจำใบหน้าของคนผิวสีได้มีประสิทธิภาพต่ำกว่าคนผิวมากไปมาก ส่งผลให้ทั้งวงการ AI ได้เกิดการตั้งคำถามและศึกษาถึงกรณีดังกล่าวมากขึ้น 


อ้างอิง reuters


ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

ศูนย์วิจัยกสิกรชี้ ส่งออกไทยอาจเสียหาย 4 แสนล้านบาท จากภาษีตอบโต้ 37%

ศูนย์วิจัยกสิกรไทย ออกบทวิเคราะห์ประเมินถึงสถานการณ์ที่สหรัฐญ ขึ้นภาษีตอบโต้ (Reciprocal Tariffs) กับไทยในอัตรา 37% ซึ่งถือว่าสูงกว่าที่เคยประเมินไว้ที่ 25% ถือเป็นความเสี่ยงต่อเศร...

Responsive image

ไทย–อินเดีย จับมือสู่การเป็น “หุ้นส่วนทางยุทธศาสตร์”

ไทย-อินเดียยกระดับสัมพันธ์สู่ “หุ้นส่วนทางยุทธศาสตร์” ประกาศความร่วมมือ 6 ฉบับ ครอบคลุมเศรษฐกิจ ดิจิทัล วัฒนธรรม รับมือแรงสั่นสะเทือนจากนโยบายภาษีสหรัฐฯ และเสริมบทบาทภูมิรัฐศาสตร์ใ...

Responsive image

[ข่าวลือ] Microsoft ชะลอการลงทุน Data Center ในหลายประเทศทั่วโลก

Microsoft ถูกเปิดเผยว่าชะลอหรือหยุดการลงทุนใน Data Center หลายประเทศ ทั้งลอนดอน ชิคาโก อินโดนีเซีย และวิสคอนซิน สะท้อนการทบทวนยุทธศาสตร์ AI และคลาวด์ ข้อมูลจาก Bloomberg...