ดูเหมือนว่า แพลตฟอร์มโซเชียลมีเดียหลักๆ อย่างเฟซบุ๊ก ทวิตเตอร์ ซึ่งเป็นตัวกลางการสื่อสารระหว่างผู้คน จะถูกเรียกร้องให้ลงมือทำอะไรมากขึ้นเรื่อยๆ โดยเฉพาะเมื่อโซเชียลมีเดียเข้าไปมีส่วนในเหตุการณ์ความรุนแรงต่างๆ
กรณีล่าสุดเมื่อกลางเดือนกันยายนที่ผ่านมา หลังเหตุก่อการร้ายในสถานีรถไฟใต้ดินในกรุงลอนดอน เทเรซ่า เมย์ นายกรัฐมนตรีอังกฤษ เรียกร้องให้บริษัทไอทีชั้นนำป้องกันและจัดการกับเนื้อหาของผู้ก่อการร้ายให้ดีกว่านี้และเร็วกว่านี้ โดยกำหนดระยะเวลาให้ลบเนื้อหาภายใน 2 ชั่วโมงหลังจากโพสต์ข้อความ ข้อเสนอของเมย์ไปเป็นในแนวทางเดียวกับผู้นำอีกหลายประเทศ เช่น นายกรัฐมนตรีอิตาลีและฝรั่งเศสที่แสดงความกังวลว่ากลุ่มก่อการร้ายไอเอสเผยแพร่วิดีโอและเนื้อหาออนไลน์ได้ง่ายเกินไปซึ่งนำไปสู้หตุร้าย
อันที่จริง แพลตฟอร์มเหล่านี้ก็แสดงบทบาทอื่นๆ มาโดยตลอด ที่เห็นเป็นรูปธรรมที่สุดคือ ปุ่มเซฟตี้เช็ค (Safety Check) ของเฟซบุ๊ก ซึ่งให้ผู้ใช้แสดงตัวว่าปลอดภัยดีในเหตุภัยพิบัติต่างๆ
แต่สำหรับการแสดงออกทางการเมืองหรือการก่อการร้าย เป็นเรื่องที่ซับซ้อนเกินกว่าจะตัดสินใจลงมือจัดการอย่างใดอย่างหนึ่งได้ง่ายๆ ซึ่งผู้ให้บริการโซเชียลมีเดียกำลังเจอความท้าทายใหม่ๆ ที่ชวนให้ตั้งคำถามถึงบทบาทตัวกลาง (intermediary) ว่าควรจัดการปัญหาที่เกิดขึ้นอย่างไร
ไม่นานมานี้ เฟซบุ๊กเข้าร่วมประชุมกับผู้นำหลายประเทศที่สมัชชาใหญ่แห่งสหประชาชาติในนครนิวยอร์ก สหรัฐอเมริกาพร้อมผู้บริหารระดับสูงของกูเกิลและไมโครซอฟต์ ตัวแทนจากเฟซบุ๊กกล่าวยอมรับว่า อุตสาหกรรมไอทีทำอะไรได้มากกว่าที่เป็นอยู่ และสัญญาว่าจะสร้างเทคโนโลยีที่ช่วยจัดการปัญหาที่เกิดขึ้น โดยเฉพาะอย่างยิ่ง ตอนนี้กำลังพัฒนาหุ่นยนต์ หรือ ปัญญาประดิษฐ์ (AI) เพื่อตรวจสอบเนื้อหาสุดโต่ง พร้อมเปิดเผยว่า บริษัทจ้างพนักงานตรวจสอบเนื้อหา (reviewer) บนเว็บไซต์หลายพันคน และมีพนักงานอย่างน้อย 150 คนที่ทำหน้าที่เฝ้าระวังเนื้อหาสุดโต่ง (extremist) ที่อาจนำไปสู่การก่อการร้าย ถึงกระนั้น บริษัทก็ยอมรับว่าการใช้ AI ยังมีข้อจำกัด เช่น AI อาจช่วยหาสัญลักษณ์ของผู้ก่อการร้ายได้ แต่จะให้ตีความเนื้อหาในโปสเตอร์ต่างๆ ยังไม่ได้
เฟซบุ๊กจ้างพนักงานตรวจสอบเนื้อหา (reviewer) บนเว็บไซต์หลายพันคน และมีพนักงานอย่างน้อย 150 คนที่ทำหน้าที่เฝ้าระวังเนื้อหาสุดโต่ง (extremist) ที่อาจนำไปสู่การก่อการร้าย
ท่ามกลางการเติบโตของข่าวปลอม (fake news) และความกังวลว่าผู้ก่อการร้ายจะใช้โซเชียลมีเดียเป็นช่องทางเปิดรับสมัครสมาชิกใหม่ของผู้ก่อการร้าย เฟซบุ๊กเองก็มีมาตรการดูแลเนื้อหา โดยเขียนอัลกอริธึมที่อาจลบโพสต์หรือแบนเนื้อหา ซึ่งแบ่งประเภทตามกลุ่มต่างๆ ได้แก่ เชื้อชาติ เพศ เพศสภาพ อัตลักษณ์ การนับถือศาสนา ชาติกำเนิด ชาติพันธุ์ ความสัมพันธ์ทางเพศ ความพิการและโรคร้ายแรง
แต่คำถามสำคัญที่ยังไม่มีคำตอบชัดเจนคือ เฟซบุ๊กใช้เกณฑ์อะไรว่าเมื่อไรจะลบหรือแบนเนื้อหา เพราะการปฏิบัติของเฟซบุ๊กในหลายเหตุการณ์ชวนให้สงสัย แม้เฟซบุ๊กจะอธิบายว่าออกแบบระบบให้ปกป้องทุกคนอย่างเท่าเทียมกัน แต่ก็ถูกวิจารณ์ว่าเป็นความคิดที่ตาบอดสี เพราะผลในทางปฏิบัติออกมาว่าระบบไม่ค่อยช่วยปกป้องผู้ที่ต้องการมากที่สุด
ตัวอย่างการทำงานของอัลกอริธึมที่ขาดๆ เกินๆ เช่น ในเหตุความรุนแรงกับชาวโรฮิงญาในรัฐยะไข่ ประเทศพม่า ผู้ใช้เฟซบุ๊กชาวโรฮิงญาบอกกับเว็บไซต์เดอะการ์เดียนว่า เขาถูกเฟซบุ๊กแบนหลังจากโพสต์วิดีโอการทรมานและฆ่าชาวโรฮิงญาบนเฟซบุ๊ก ทำให้เขาคิดว่า หลังจากนี้แม้จะได้ภาพหรือวิดีโอเหตุการณ์ความรุนแรงมาอีก ก็จะไม่โพสต์บนเฟซบุ๊กอีกแล้ว เพราะกลัวเฟซบุ๊กระงับการใช้งานของเขาอีก
ผู้อพยพชาวโรฮิงญาอีกรายหนึ่งเป็นนักเคลื่อนไหวทางสังคมในซาอุดิอาระเบีย ซึ่งเปิดช่องรายการบนยูทูบและเฟซบุ๊กเพื่อนำเสนอข่าวสารในชุมชนชาวโรฮิงญา ก็ถูกระงับบัญชีหลังโพสต์คลิปวิดีโอกลุ่มเยาวชนที่สนับสนุนการฆ่าชาวโรฮิงญาบนเฟซบุ๊ก
ผู้ใช้เฟซบุ๊กชาวโรฮิงญาบอกกับเว็บไซต์เดอะการ์เดียนว่า เขาถูกเฟซบุ๊กแบนหลังจากโพสต์วิดีโอการทรมานและฆ่าชาวโรฮิงญาบนเฟซบุ๊ก ทำให้เขาคิดว่า หลังจากนี้แม้จะได้ภาพหรือวิดีโอเหตุการณ์ความรุนแรงมาอีก ก็จะไม่โพสต์บนเฟซบุ๊กอีกแล้ว เพราะกลัวเฟซบุ๊กระงับการใช้งานของเขาอีก
ขณะที่เฟซบุ๊กได้รับการยกย่องว่ามีส่วนสำคัญในการโค่นล้มระบอบเผด็จการอาหรับสปริงในปี 2010-2011 แต่เฟซบุ๊กก็ถูกวิจารณ์ว่า มีแนวโน้มที่จะเข้าข้างชนชั้นนำและผู้มีอำนาจ มากกว่านักกิจกรรมทางสังคมหรือกลุ่มชาติพันธุ์ ในทางหนึ่งเป็นเพราะว่าผลประโยชน์ของบริษัทระดับโลกต้องพึ่งพารัฐไม่ให้บล็อคเว็บของพวกเขา
ยังไม่นับข้อมูลล่าสุดที่เฟซบุ๊กเพิ่งออกมายอมรับว่า เมื่อปีที่แล้ว ในช่วงของการเลือกตั้งสหรัฐอเมริกา มีการซื้อโฆษณาบนเฟซบุ๊ก ที่การสั่งซื้อมาจากรัสเซีย รวมมูลค่ากว่า 150,000 ดอลลาร์สหรัฐ (ราว 5 ล้านบาท) โดยโฆษณาเหล่านั้นสามารถเข้าถึงคนได้กว่า 10 ล้านคนในสหรัฐอเมริกา ซึ่งเรื่องดังกล่าวอยู่ระหว่างการสืบสวนสอบสวนว่า รัสเซียมีบทบาทในการแทรกแซงการเมืองสหรัฐฯ หรือไม่อย่างไร
เว็บไซต์ ProPublica วิจารณ์ว่า การที่เฟซบุ๊กมีพนักงานที่ทำหน้าที่เซนเซอร์เนื้อหากว่า 7,500 คน เป็นปฏิบัติการเซ็นเซอร์ระดับโลกขนาดใหญ่ที่สุดในประวัติศาสตร์ และโปร่งใสน้อยที่สุดด้วย เพราะเฟซบุ๊กไม่ได้เปิดเผยหลักเกณฑ์ว่าเนื้อหาแบบไหนที่โพสต์ได้ เนื้อหาแบบไหนที่ถูกลบ
ลบ-ไม่ลบ กับวิจารณญาณแสนซับซ้อน
ตลอดเวลาที่ผ่านมา เฟซบุ๊กพัฒนากฎต่างๆ มากมายกว่าร้อยกฎเพื่อพยายามระบุว่า อะไรที่ควรอนุญาต อะไรที่ไม่ควร และพยายามทำให้เว็บไซต์ปลอดภัยสำหรับผู้ใช้กว่าสองพันล้านคน
ในปี 2008 แนวปฏิบัติว่าด้วยการเซนเซอร์ของเฟซบุ๊กยังคงเป็นกระดาษแผ่นเดียวที่มีรายการของโพสต์ที่ต้องถูกกำจัดออก เช่น ภาพโป๊เปลือย ฯลฯ ในตอนท้ายระบุว่า “เอาสิ่งที่ทำให้คุณรู้สึกไม่สบายใจออก” จนกระทั่งพนักงานฝ่ายเนื้อหาของเฟซบุ๊กคนหนึ่งที่ทำหน้าที่ตรวจสอบรูปภาพ 15,000 ภาพต่อวันพบว่า เกณฑ์ที่มีอยู่ไม่ละเอียดพอ เขาและเพื่อนร่วมงานจึงพัฒนาเกณฑ์ใหม่จนได้เลื่อนขั้นเป็นหัวหน้าฝ่ายนโยบายเนื้อหา ในปี 2013 จึงมีแนวปฏิบัติด้านเนื้อหาของเฟซบุ๊กขึ้นมา
กรณีที่เฟซบุ๊กถูกวิจารณ์อย่างหนัก คือ เมื่อปี 2016 ที่เฟซบุ๊กเซ็นเซอร์ภาพเปลือยของเด็กชาวเวียดนามในช่วงสงครามเวียดนาม ซึ่งเป็นปฏิบัติการจากนโยบายแบนเนื้อหาที่มีภาพรุนแรงหรือภาพโป๊เปลือย จนทำให้เฟซบุ๊กต้องปรับปรุงมาตรฐานการปฏิบัติงานใหม่โดยยอมให้เนื้อหาที่ “มีคุณค่าข่าวและสำคัญต่อผลประโยชน์สาธารณะ” ปรากฏ
การตัดสินใจที่ต้องเกิดขึ้นหลายล้านครั้งต่อวันทำให้เฟซบุ๊กเลือกหลักการอรรถประโยชน์นิยม (Utilitarianism) มากกว่าในระบบยุติธรรมปกติ ซึ่งมาจากแนวคิด “สร้างโลกที่เปิดกว้างและเชื่อมโยงกันมากขึ้น” ตามพันธกิจของเฟซบุ๊ก โดยปราศจากอคติต่อสิ่งที่คนเขียนหรือโพสต์ หลักการของ จอห์น สจ๊วร์ต มิลล์ นักปรัชญาชาวอังกฤษในศตวรรษที่ 19 ที่ว่า วัตถุประสงค์เดียวที่จะละเมิดเจตจำนงของปัจเจกบุคคล คือเป็นไปเพื่อป้องกันอันตรายที่จะเกิดขึ้นต่อผู้อื่น นี่จึงทำให้เฟซบุ๊กแบนโพสต์ที่ระบุการกระทำที่เฉพาะเจาะจงซึ่งเป็นการทำให้คนอื่นหวาดกลัว แต่ยอมให้มีการข่มขู่แบบกว้างๆ ที่เฟซบุ๊กเชื่อว่าไม่น่าเป็นไปได้จริง
กรณีที่เฟซบุ๊กถูกวิจารณ์อย่างหนัก คือ เมื่อปี 2016 ที่เฟซบุ๊กเซ็นเซอร์ภาพเปลือยของเด็กชาวเวียดนามในช่วงสงครามเวียดนาม ซึ่งเป็นปฏิบัติการจากนโยบายแบนเนื้อหาที่มีภาพรุนแรงหรือภาพโป๊เปลือย จนทำให้เฟซบุ๊กต้องปรับปรุงมาตรฐานการปฏิบัติงานใหม่โดยยอมให้เนื้อหาที่ “มีคุณค่าข่าวและสำคัญต่อผลประโยชน์สาธารณะ”
ตอนนี้เฟซบุ๊กใช้เอกสารของรัฐบาลสหรัฐอเมริกาที่ระบุรายชื่อองค์กรก่อการร้ายเป็นเกณฑ์ เช่น อัลไกดา ตาลีบัน หรือโบโกฮาราม และยังมีรายการลับที่ไม่ได้ระบุไว้ในเอกสารด้วย ซึ่งเป็นรายชื่อกลุ่มที่เฟซบุ๊กระบุว่าสร้างความเกลียดชัง
จิลเลียน ยอร์ก ผู้อำนวยการฝ่ายเสรีภาพในการแสดงออกของมูลนิธิ Electronic Frontier Foundation (EFF) เตือนว่า การทำให้นโยบายเข้มงวดเกินไป แคบเกินไป จะนำไปสู่ผลที่เราไม่อยากให้เกิด (backfiring) คนข้ามเพศพบว่าเฟซบุ๊กบล็อคพวกเขา คนผิวสีก็ถูกบล็อคเช่นกัน เมื่อเขียนข้อความว่า “คนผิวขาวเป็นพวกเหยียดเชื้อชาติ” ในเพจยอร์กมองว่า แพลตฟอร์มเหล่านี้มีความรับผิดชอบที่ต้องทำอะไรมากกว่าการเอาโพสต์ที่เป็น Hate Speech ออกไป เธอเรียกร้องให้แพลตฟอร์มเหล่านี้โปร่งใสและมีความรับผิด (accountable) ต่อผู้ใช้ ลำพังการเซ็นเซอร์อย่างเดียวแก้ปัญหาความเกลียดชังไม่ได้ ยอร์กเห็นว่า แพลตฟอร์มต้องให้ความรู้แก่ผู้ใช้ว่า Hate Speech คืออะไร แทนที่จะเอาเนื้อหาออก เพราะสำหรับเธอ เธอก็อยากรู้ว่ามีใครในกลุ่มเพื่อนของเธอเป็นผู้สนับสนุนนาซี
แม้จะยังไม่มีข้อสรุปว่าโซเชียลมีเดียควรทำอย่างไร แต่ก็ปฏิเสธไม่ได้ว่า ระบบเอาเนื้อหาออกแบบอัตโนมัติจะส่งผลกระทบต่อผู้โพสต์เนื้อหาอย่างกว้างขวาง และผู้ก่อการร้ายก็ยังสามารถใช้แพลตฟอร์มอื่นๆ ได้อยู่ดี
ภาพประกอบโดย ปรางวลัย พูลทวี
ที่มา:
www.theguardian.com/technology/2017/sep/20/facebook-admits-industry-could-do-more-to-combat-online-extremism
www.theguardian.com/technology/2017/sep/20/facebook-rohingya-muslims-myanmar
www.propublica.org/article/facebook-hate-speech-censorship-internal-documents-algorithms
mic.com/articles/183830/these-tech-companies-are-finally-standing-up-to-hate-will-it-work
qz.com/1084357/what-facebook-told-congress-about-how-russian-ad-buyers-spread-propaganda/
www.reuters.com/article/us-facebook-advertising/facebook-says-10-million-u-s-users-saw-russia-linked-ads-idUSKCN1C71YM
Tags: Hate Speech, facebook, เฟซบุ๊ก, Ban