ที่มาภาพ: mashable.com

Posted: 23 Sep 2017 05:08 AM PDT (อ้างอิงจากอีเมล์ข่าว เว็บไซต์ประชาไท)

จากกรณีที่นักวิจัยของวิทยาลัยธุรกิจบัณฑิตแห่งสแตนฟอร์ด ใช้ระบบปัญญาประดิษฐ์สแกนใบหน้าเพื่อจำแนกว่าใครเป็นคนรักเพศเดียวกันหรือไม่ ได้ก่อให้เกิดข้อถกเถียง ทั้งในประเด็นเรื่องความเป็นส่วนตัวและประเด็นเรื่องอคติต่อเพศวิถี มีทั้งข้อวิจารณ์เรื่องการล่วงล้ำตัวบุคคลที่ไม่อยากเปิดเผยตัวตน หรือกังวลว่าถูกนำมาใช้โดยผู้ไม่ประสงค์ดี

23 ก.ย. 2560 เมื่อไม่นานมานี้มีการเผยแพร่เรื่องการใช้ระบบปัญญาประดิษฐ์ตรวจใบหน้าบุคคลเพือระบุว่าคน ๆ นั้นเป็นคนรักเพศเดียวกันหรือไม่ เป็นผลงานของ มิคาล โคซินสกี และ ยี่ล่วน หวัง นักวิจัยจากวิทยาลัยธุรกิจบัณฑิตของมหาวิทยาลัยสแตนฟอร์ด ที่ทำการสำรวจจากกลุ่มตัวอย่างรูปภาพ 35,326 รูป จากกลุ่มตัวอย่าง 14,776 คน จากเว็บไซต์หาคู่เดทของอเมริกัน

พวกเขาใช้ระบบเครือข่ายประสาทเทียมระดับลึก (deep neural networks) ร่วมกับเทคโนโลยีการตรวจสอบใบหน้า และปรับอัลกอริทึม (ลำดับวิธีการของข้อมูล) ให้ระบุถึงความแตกต่างของลักษณะบนใบหน้า พวกเขาระบุว่าระบบปัญญาประดิษฐ์ระบุได้ตรงเป็นส่วนใหญ่ว่าใครเป็นคนรักเพศเดียวกันใครเป็นคนรักต่างเพศเมื่อเทียบกับให้คนระบุ แต่ทว่างานวิจัยนี้ถูกมองว่ามีอคติทางเพศวิถี ขาดความรู้เรื่องเพศวิถิโดยมองอะไรแบบแค่เป็นคู่ตรงข้าม มีแต่ตัวแทนที่เป็นคนขาว และเข้าข่าย "วิทยาศาสตร์ขยะ"

งานวิจัยไอทีที่สร้างความเข้าใจผิดเรื่องเพศวิถี

มีการวิจารณ์ทั้งจากกลุ่มเพื่อสิทธิความเป็นส่วนตัวและกลุ่มที่รณรงค์เรื่องความหลากหลายทางเพศ LGBTQ โดยบอกว่าเป็นงานวิจัยที่ "อันตรายและมีข้อบกพร่อง" รวมถึงไม่มีตัวแทนที่หลากหลายมากพอ มีอคติทางเชื้อชาติ และมองสเปกตรัมของเพศวิถีแบบมีแค่สองคู่ตรงข้าม

จิม ฮาลโลราน หัวหน้าสำนักงานดิจิทัลขององค์กร GLAAD องค์กรรณรงค์ด้านสื่อ LGBTQ ที่ใหญ่ที่สุดในโลกกล่าวว่า "เทคโนโลยีไม่สามารถระบุเจาะจงเพศวิถีของใครคนใดคนหนึ่งได้" สิ่งที่เทคโนโลยีเหล่านี้มองเห็นเป็นแค่แบบแผนบางอย่างที่มีอยู่ในกลุ่มตัวอย่างกลุ่มย่อยเล็กๆ ที่เป็นคนขาวจากเว็บไซต์หาคู่ที่มีลักษณะไปในทางเดียวกัน

นอกจาก GLAAD แล้วองค์กรฮิวแมนไรท์แคมเปญ (HRC) ก็เป็นอีกองค์กรหนึ่งที่เรียกร้องให้มหาวิทยาลัยสแตนฟอร์ดและสื่อออกมาหักล้างความเชื่อผิดๆ จากงานวิจัยนี้ ทางด้านโคซินสกีและหวังโต้ตอบ HRC และ GLAAD ว่าพวกเขา "ด่วนตัดสินเกินไป"

ฮาลโลรานวิจารณ์ว่างานวิจัยชิ้นนี้ไม่ได้เป็นวิทยาศาสตร์หรือแม้กระทั่งควรเป็นข่าว มันเป็นแค่ลักษณะการบรรยายมาตรฐานรูปร่างหน้าตาบนเว็บหาคู่ที่ไม่ได้เกี่ยวข้องกับชุมชน LGBTQ ส่วนใหญ่ รวมถึงยังละเลยเรื่องอายุ เพศสภาพของคนข้ามเพศ รวมถึงชาว LGBTQ ที่ไม่ได้ต้องการโพสต์รูปบนเว็บหาคู่ด้วย

การแปะป้ายและอคติ

นอกจากนี้ยังมีเรื่องเชิงจรรยาบรรณการวิจัยจากการดูดเอาข้อมูลเผยแพร่ต่อสาธารณะผ่านเว็บไซต์หาคู่ รวมถึงยังมีส่วนชวนให้ตี่งคำถามเรื่องการขาดความหลากหลายของตัวแทนและการแปะป้ายตัวบุคคลด้วย

งานวิจัยชิ้นนี้มีไม่มีกลุ่มตัวอย่างเชื้อชาติสีผิวอื่นนอกจากคนผิวขาวเลย อีกทั้งยังเหมาเอาเองว่าเพศวิถีมีแค่สองแบบคิดคนรักเพศเดียวกันกับคนรักต่างเพศ ไม่ได้มองถึงคนรักสองเพศเลย แม้แต่ไมเคิล คุก คนวิจัยเรื่องปัญญาประดิษฐ์จากมหาวิทยาลัยฟาลมัธก็ตั้งข้อสังเกตว่าตัวแทนกลุ่มตัวอย่างเหล่านี้เป็นคนอายุต่ำกว่า 40 ปี มีแต่คนขาวในสหรัฐฯ และต้องเป็นคนที่เผยแพร่โปรไฟล์รวมถึงเพศวิถีของตัวเองให้รู้ผ่านเว็บไซต์ ทำให้เกิดปัญหาว่าแล้วคนช่วงอายุอื่นในประเทศอื่นเขามีสถานการณ์เรื่องความรักต่างกันหรือไม่

นอกจากนี้คุกยังพูดถึงปัญหาการแปะป้ายเพศวิถีให้กับผู้คน จากที่การศึกษาข้อมูลนี้จัดคนยัดใส่กล่องโดยอาศัยแค่สิ่งที่พวกเขาบอกว่ากำลังมองหา "ผู้ชาย" หรือ "ผู้หญิง" ผ่านทางโปรแกรมหาคู่ โดยไม่คำนึงว่าเพศวิถีในโลกนี้ยังมีกลุ่มอื่นๆ อย่างคนที่รักสองเพศ คนที่ไม่ฝักใจทางเพศ คนที่ยังไม่ชัวร์ว่าตัวเองจะเป็นเพศอะไร คนที่ยังปกปิดเพศวิถีของตัวเองอยู่ด้วย

อันตรายต่อสิทธิความเป็นส่วนตัว

สำหรับในมุมมองของสิทธิความความเป็นส่วนตัวแล้วงานวิจัยนี้ถึงกับเป็นเรื่องอันตรายเลยทีเดียว ดานา โปลาติน-รูเบน เจ้าหน้าที่ด้านเทคโนโลยีขององค์กรไพรเวซีอินเตอร์เนชันแนลบอกว่างานวิจัยเช่นนี้เป็นภัยต่อสิทธิและในหลายๆ กรณีก็กระทบต่อชีวิตของชาว LGBTQ ที่ยังคงอยู่ภายใต้การถูกกดขี่

รโปลาติน-รูเบน กับคุกเห็นตรงกันว่ากลุ่มตัวอย่างในงานวิจัยนี้ไม่หลากหลายมากพอ มันไม่ได้คำนึงถึงความแตกต่างของรูปร่างหน้าตาคน งานวิจัยนี้จึงไม่สามารถนำมาใช้ได้จริงในระดับสากล

โคซินสกีและหวังยอมรับว่างานวิจัยของพวกเขามีข้อจำกัดเช่นเรื่องจำนวนกลุ่มตัวอย่าง หรือรูปภาพต่างกันของคนๆ เดียวกันระบบปัญญาประดิษฐ์ก็ประมวลผลออกมาต่างจากเดิม โคซินสกีและหวังบอกอีกว่าพวกเขารู้สึกกังวลจากผลการวิจัยจนใช้เวลาพิจารณานานมากว่าจะเผยแพร่เรื่องนี้ออกสู่สาธารณะดีหรือไม่

การเผยแพร่ผลการวิจัยนี้มีโอกาสทำให้เกิดปัญหาต่อสิทธิความเป็นส่วนตัวถ้าหากมาการพยายามตรวจจับใบหน้าของผู้คนที่เปิดเผยแพร่ต่อสาธารณะผ่านโซเชียลมีเดียต่างๆ เพื่อสำวจเรื่องเพศวิถีของพวกเขาโดยไม่ได้รับการตกลงยินยอมจากผู้คนเหล่านั้น

แอชแลนด์ จอห์นสัน ผู้อำนวยการฝ่ายระบบการศึกษาและการวิจัยของ HRC กล่าวว่างานวิจัยแบบนี้อาจจะส่งผลกระทบเรื่องสิทธิความเป็นส่วนตัวจริง และเป็นเรื่องน่ากลัวถ้าหากมีรัฐบาลที่โหดเหี้ยมนำเครื่องมือแบบนี้ไปใช้ในการตรวจหาและปราบปรามคนที่พวกเขาเชื่อว่าเป็นคนรักเพศเดียวกัน

ข้อระวังจากการอ้างความชอบธรรมด้วย "วิทยาศาสตร์"

ผู้วิจัยทั้งสองคนจะพยายามพูดในทำนองแก้ตัวปกป้องตัวเองว่าเรื่องนี้มีรัฐบาลบางแห่งและบรรษัทบางแห่งทำอยู่แล้ว พวกเขาจึงทำไปเพื่อต้องการเตือนผู้กำหนดนโยบายและชุมชน LGBTQ ว่าพวกเขามีความเสี่ยงอย่างไรบ้างถ้าหากเทคโนโลยีนี้ตกไปอยู่ในมือของผู้ไม่ประสงค์ดี

กระนั้นคุกก็วิจารณ์ว่าการวิจัยนี้ไม่สำคัญว่ามันจะได้ผลจริงหรือไม่ แต่มันเป็นการให้ความชอบธรรมในเรื่องการละเมิดความเป็นส่วนตัวและละเมิดตัวตนของ LGBTQ ผ่านข้ออ้างที่ฟังดู "ยอมรับได้" อย่าง "ความเป็นวิทยาศาสตร์" ระบบปัญญาประดิษฐ์และคอมพิวเตอร์มี "ออร่าแห่งความน่าเชื่อถือ" ในสายตาผู้คนอยู่แล้ว แต่เทคโนโลยีเช่นนี้มีจุดที่แย่ถ้าหากมีการอ้างข้ออ้างให้ความชอบธรรมตัวเองเหล่านี้ในการตอบสนองต่อความเกลียดชังผ่านทางคอมพิวเตอร์

กลุ่มรณรงค์เรื่อง LGBTQ พยายามติดต่อกับมหาวิทยาลัยสแตนฟอร์ดหลายเดือนก่อนหน้าที่จะมีการเผยแพร่งานวิจัยนี้ออกมาแต่ก็ไม่มีการตอบรับความกังวลใดของพวกเขา ทำให้พวกเขาสรุปว่าเมื่อพิจารณาจากข้อมูลเหล่านี้แล้ว ข้ออ้างจากสื่อที่อ้างว่าระบบปัญญาประดิษฐ์บอกได้ว่าใครเป็นเกย์เพียงแค่ตรวจสอบใบหน้านั้น "ไม่มีความแม่นตรงทางข้อเท็จจริง"


เรียบเรียงจาก

Everything that's wrong with that study which used AI to 'identify sexual orientation', Mashable, 11-09-2017
[full-post]

แสดงความคิดเห็น

ขับเคลื่อนโดย Blogger.