มันเป็นเรื่องที่เราทราบกันว่าระบบ AI และอัลกอริทึม ถือว่ามีบทบาทเป็นอย่างมากในโลกปัจจุบันไปแล้ว เพราะไม่ว่าจะเป็นโฆษณาที่เราเห็น หรือวิดีโอแนะนำบนยูทูป สิ่งเหล่านี้ก็ล้วนแต่จะมาจากระบบ AI และอัลกอริทึมทั้งสิ้น
แต่ถึงอย่างนั้นก็ตามระบบอัลกอริทึมเองก็ใช่ว่าจะไม่เคยมีปัญหาหรือข้อเสียเลยเช่นกัน
เพราะเมื่อล่าสุดนี้เอง ตอนที่ผู้ใช้ทวิตเตอร์อย่างคุณ Tony Arcieri ซึ่งทำงานเป็นนักเข้ารหัสและวิศวกรโครงสร้างพื้นฐานทดสอบระบบย่อรูปของทวิตเตอร์ (ซึ่งใช้เลือกภาพขนาดย่อ ของรูปที่ยาวหรือกว้างเกินไป)
ภาพที่คุณ Tony Arcieri ใช้ ในกรณีนี้คือภาพคุณ Mitch McConnell และ Barack Obama
เขาก็พบว่าในกรณีที่ภาพดังกล่าวเป็นรูปคนผิวดำกับคนผิวขาว อัลกอริทึมของทวิตเตอร์จะเลือกคนผิวขาวมาเป็นภาพขนาดย่อแทบจะตลอดเวลาเสียอย่างนั้น
ผลที่ออกมา จะเห็นได้ว่าอัลกอริทึมของทวิตเตอร์ ย่อทั้งสองรูปลงมาเหลือแค่ Mitch McConnell คนเดียว
Trying a horrible experiment…
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
— Tony "Abolish ICE" Arcieri 🦀🌹 (@bascule) September 19, 2020
ต่อให้ชาวทวิตเตอร์เพิ่มรูป Obama ก็ไม่หาย (ลองกดดูจะเห็นรูป Obama หลายรูป)
https://twitter.com/Jack09philj/status/1307452960960647168
กับ Michael Jackson ก็เป็น
Happens with Michael Jackson too…… pic.twitter.com/foUMcExS2P
— MKMERLIN (@gnomestale) September 19, 2020
ตัวอย่างของคนอื่นๆ
https://twitter.com/doidinhavids/status/1307921476385935363
เมื่อเห็นเป็นอย่างนี้ ชาวทวิตเตอร์ก็เริ่มที่จะทำการทดลองหาเหตุผลของ “เหยียดผิว” ของอัลกอริทึมทวิตเตอร์ไปเรื่อยๆ ไม่ว่าจะเป็นการลองกับคนอื่นๆ ผู้หญิงและผู้ชาย
จนกระทั่งผู้ใช้ @Slictzer พบว่าอัลกอริทึมของทวิตเตอร์น่าจะอาศัยระดับ “ความคอนทราสท์” จากรอยยิ้ม โดยเฉพาะที่ปากของคนเป็นหลักในการตัดสินว่าจะเอาใครขึ้นภาพขนาดย่อดี
ว่าแล้วชาวทวิตเตอร์ก็เลยลองเอาภาพ Obama ยิ้มที่มีความคอนทราสท์สูงมาลองดูซะเลย แล้วก็ดูเหมือนแนวคิดนี้จะถูกต้องจริงๆ เสียด้วย
Okay, to test this hypothesis, let’s try using an image of Barack with a higher contrast smile. This might do it. pic.twitter.com/AX073Ss2KD
— Kim (@kim) September 20, 2020
อ้างอิงจาก Lucas Theis นักวิจัยเกี่ยวกับแมชชีนเลิร์นนิง ที่เป็นเช่นนี้เป็นไปได้ว่าจะมาจากการที่ คนส่วนใหญ่มักจะเลือก ภาพที่มีคอนทราสท์สูงมาใช้ในการฝึกระบบอัลกอริทึม
ซึ่งการกระทำนี้มักจะเกิดขึ้นโดยไม่ตั้งใจ แต่ในระยะยาว มันก็อาจจะทำให้ระบบอัลกอริทึมมีการไบแอสตามไปด้วย
“โดยทั่วไปผู้คนมักให้ความสำคัญ ไม่เพียงแต่กับใบหน้า ข้อความ และสัตว์ แต่ยังรวมไปถึง บริเวณที่มีความคอนทราสต์สูง ซึ่งเราก็มักเอาข้อมูลนี้ไปฝึกอัลกอริทึม เพื่อให้มันคาดเดาสิ่งที่ผู้คนอาจต้องการดูอยู่บ่อยๆ”
และเมื่อเรื่องนี้รู้ไปถึงหูของทางทวิตเตอร์ พวกเขาก็ยืนยันว่าพวกเขามีการตรวจสอบระบบของตัวเองไม่ให้มีการเหยียดผิว เพศ หรือลักษณะอื่นๆ แล้ว
แต่เรื่องที่ออกมา ก็จะทำให้พวกเขาทราบว่าตนยังต้องดำเนินการปรับปรุงสิ่งที่เกิดขึ้นต่อไป และจะรายงานความคืบหน้าให้เราทราบอย่างใกล้ชิดแน่นอน
ที่มา iflscience
ใส่ความเห็น
คุณต้องเข้าสู่ระบบ เพื่อจะพิมพ์ความเห็น