ในยุคที่เทคโนโลยีพัฒนาอย่างรวดเร็ว Deepfake กลายเป็นหนึ่งในเครื่องมือที่ทั้งน่าทึ่งและน่ากลัว ด้วยพลังของปัญญาประดิษฐ์ (AI) เทคโนโลยีนี้สามารถ ‘สลับใบหน้า’ ของใครคนหนึ่งไปใส่ในวิดีโอหรือภาพของอีกคนได้อย่างแนบเนียน ราวกับเป็นของจริง

ไม่เพียงแค่นั้น AI รุ่นใหม่ยังสามารถสร้างภาพโป๊ปลอมได้จากภาพหน้าตรงของใครก็ได้ ทุกวันนี้แค่มีรูปอยู่ในโซเชียลมีเดีย ใครๆ ก็อาจกลายเป็นเหยื่อได้โดยไม่รู้ตัว เช่น เจนนี่ BLACKPINK, ไอยู หรือเทย์เลอร์ สวิฟต์ (Taylor Swift) ต่างเคยถูกนำใบหน้าไปตัดต่อเป็นคลิปลามก ฝั่งไทยเองก็มีกรณีของ โบว์-เมลดา สุศรี และฟ้า-ษริกา สารทศิลป์ศุภา ที่ออกมาเปิดเผยว่า ถูกนำใบหน้าไปใช้ในลักษณะเดียวกัน 

ปัญหานี้กำลังลุกลาม ไม่ได้เกิดแค่กับคนดัง แต่รวมถึงผู้หญิงทั่วไปที่เพียงแค่มีรูปโปรไฟล์อยู่ในอินเทอร์เน็ต ก็อาจถูกนำไปใช้สร้างภาพลามกได้ในเวลาไม่กี่วินาที แม้เทคโนโลยีอย่าง AI จะมีประโยชน์ในวงการบันเทิง การศึกษา หรือโฆษณา แต่เมื่อถูกใช้ในทางที่ละเมิดสิทธิผู้อื่น มันก็กลายเป็น ‘เครื่องมือคุกคามทางเพศยุคดิจิทัล’ ที่สร้างบาดแผลจริง ทั้งในแง่จิตใจ ชื่อเสียง และความปลอดภัยในชีวิตประจำวัน

จนนำมาสู่คำถามสำคัญว่า ในวันที่เทคโนโลยีล้ำหน้าไปไกลขนาดนี้ เราจะปกป้องสิทธิในร่างกายของตัวเองได้แค่ไหน และถ้าถูกทำร้ายด้วยคลิปปลอมจาก AI เราจะสามารถเอาผิดกับคนทำได้หรือไม่

‘ล้อเล่น’ ที่กลายเป็นการล่วงละเมิด

จากงานวิจัยของ MIT พบว่า 96% ของเนื้อหา Deepfake Porn บนโลกออนไลน์มีเหยื่อเป็น ‘ผู้หญิง’ และหนึ่งในเรื่องที่น่าตกใจที่สุดคือ ผู้กระทำมักไม่ใช่ ‘คนแปลกหน้า’ แต่กลับเป็น ‘คนใกล้ตัว’ เช่น เพื่อนร่วมชั้น เพื่อนร่วมงาน แฟนเก่า หรือแม้แต่คนในครอบครัว

อย่างในกรณีของมหาวิทยาลัยฮ่องกง มีนักศึกษาชายคนหนึ่งนำภาพของเพื่อนและอาจารย์หญิงจำนวนราว 20-30 คน ไปใช้กับ AI เพื่อสร้างภาพโป๊มากกว่า 700 ภาพ ก่อนส่งภาพเหล่านี้ต่อในกลุ่มลับของผู้ชาย โดยอ้างว่า เป็นเรื่อง ‘ขำๆ’

แม้ภาพที่ถูกสร้างขึ้นจะเป็นของปลอม แต่การนำภาพของใครไปใช้ในทางลามกอนาจาร ก็ถือเป็นการล่วงละเมิดทางเพศ และอาจนำไปสู่ความรุนแรงรูปแบบอื่น เช่น การแบล็กเมล์ ขายข้อมูล หรือคุกคามทางออนไลน์

สิ่งที่น่ากังวลไม่แพ้กันคือ ระบบกฎหมายและสังคมยังไม่รับมือกับปัญหานี้อย่างจริงจัง อย่างในกรณีของนักศึกษาฮ่องกงดังกล่าว เจ้าหน้าที่เลือกเพียงออกจดหมายตักเตือน โดยไม่ตั้งข้อหาทางอาญาใดๆ สะท้อนว่า ผู้กระทำจำนวนมากยังคิดว่าตนสามารถทำอะไรก็ได้ หากไม่มีหลักฐานว่าเหยื่อ ‘บาดเจ็บทางกาย’ ทั้งที่ในความเป็นจริง ผลกระทบทางจิตใจที่เหยื่อต้องเผชิญ อาจรุนแรงไม่ต่างจากการถูกล่วงละเมิดทางเพศจริงเลยด้วยซ้ำ

 

เมื่อกฎหมายไทยยังวิ่งตามเทคโนโลยีที่รุกล้ำร่างกายไม่ทัน

หากวันหนึ่งเราโดนนำรูปจาก Facebook ไปตัดต่อเป็นภาพหรือคลิปโป๊ปลอม แล้วถูกแชร์ในกลุ่ม Telegram หรือเว็บไซต์ลามกสามารถแจ้งความได้ไหม คำตอบคือ สามารถแจ้งความได้ แต่ในความเป็นจริงกลับทำได้ยากมาก

สาเหตุหลักคือ กฎหมายไทยยังไม่มีบทบัญญัติเฉพาะที่ระบุว่า ‘การสร้างภาพลามกปลอม’ ด้วย AI เป็นความผิดทางอาญาโดยตรง หากผู้กระทำอ้างว่าแค่ทำเล่น ไม่ได้เผยแพร่ หรือภาพนั้นไม่ใช่ภาพจริงของเหยื่อ เหยื่อจึงมักถูกปัดตกตั้งแต่ขั้นตอนแจ้งความที่สถานีตำรวจ ซึ่งนั่นเท่ากับการเปิดพื้นที่ให้ Deepfake กลายเป็นเครื่องมือใหม่ของการคุกคามทางเพศ โดยที่ผู้เสียหายไม่สามารถเรียกร้องความยุติธรรมได้

กฎหมายที่ใกล้เคียงที่สุดที่อาจใช้ดำเนินคดีกับผู้กระทำคือ พ.ร.บ.ว่าด้วยการกระทำความผิดเกี่ยวกับคอมพิวเตอร์ มาตรา 14 (4) ซึ่งระบุถึงการนำข้อมูลลามกเข้าสู่ระบบคอมพิวเตอร์ โดยมีโทษจำคุกไม่เกิน 5 ปี ปรับไม่เกิน 1 แสนบาท หรือทั้งจำทั้งปรับ แต่ในทางปฏิบัติ เจ้าหน้าที่มักตีความว่า Deepfake ไม่ใช่ภาพลามก ‘จริง’ และเหยื่อ ‘ไม่ได้รับความเสียหายชัดเจน’ โดยเฉพาะในกรณีที่ยังไม่สามารถตามตัวผู้เผยแพร่ได้ หรือยังไม่มีการเผยแพร่ออกสู่สาธารณะอย่างชัดเจน

อีกทางหนึ่งคือการฟ้องร้องในข้อหาหมิ่นประมาท หรือทำให้ผู้อื่นเสียชื่อเสียง แต่กระบวนการมักเจออุปสรรค ทั้งในเรื่องของการพิสูจน์เจตนาและการดำเนินคดีทางแพ่งที่ใช้เวลานานและมีค่าใช้จ่ายสูง ที่สำคัญคือ หน่วยงานที่รับผิดชอบมักขาดบุคลากรที่เข้าใจเทคโนโลยีลึกพอ ทำให้หลายคดีเงียบหายหรือไม่ถูกสืบต่ออย่างจริงจัง

หากเปรียบเทียบกับต่างประเทศ หลายประเทศเริ่มตระหนักถึงปัญหานี้และออกกฎหมายเฉพาะมารองรับ เช่น สหรัฐอเมริกาที่มีการผลักดัน DEEPFAKES Accountability Act และกฎหมาย Take It Down เพื่อช่วยให้เหยื่อสามารถร้องขอให้ลบภาพออกจากระบบได้อย่างรวดเร็ว หรืออย่างสหราชอาณาจักรที่มี Online Safety Act กำหนดให้การสร้างหรือเผยแพร่ Deepfake Porn โดยไม่ได้รับความยินยอม ถือเป็นความผิดทางอาญา แม้ภาพนั้นจะไม่ใช่ร่างกายจริงของเหยื่อก็ตาม

ร่างกายของฉันไม่ได้เป็นของเล่นของใคร

“อย่าลืมนะว่าของที่หนูมี แม่พี่ก็มีเหมือนกัน”

ประโยคสั้นๆ แต่ทรงพลังจากโบว์ หลังจากใบหน้าของเธอถูกนำไปตัดต่อเป็นคลิปโป๊ปลอม และเผยแพร่อย่างง่ายดายผ่าน AI และกลุ่ม Telegram คำพูดของเธอไม่ใช่แค่การปกป้องตัวเอง แต่ยังส่งเสียงแทนผู้หญิงอีกมากมายที่ถูกพราก ‘สิทธิในร่างกาย’ ไปโดยไม่ได้ยินยอม

สิทธิในร่างกายและเพศ คือสิทธิขั้นพื้นฐานที่ทุกคนพึงมี ไม่ว่าจะเป็นหญิง ชาย หรือเพศใดก็ตาม การล่วงละเมิดร่างกาย ไม่ว่าจะเกิดขึ้นในโลกจริงหรือโลกดิจิทัลล้วนเป็นการบุกรุกเส้นเขตแดนส่วนตัวอย่างร้ายแรง แม้ภาพจะถูกสร้างขึ้นจาก AI และไม่ใช่ภาพโป๊ ‘จริง’ แต่ผลกระทบต่อเหยื่อคือของจริง เสียหายจริง และเจ็บปวดจริง

ที่น่ากังวลคือ ปัญหานี้ไม่ใช่แค่เรื่องเทคโนโลยี แต่มันยังเกี่ยวพันกับการเมืองเรื่องเพศและอัตลักษณ์ เพราะเหยื่อส่วนใหญ่มักเป็นผู้หญิง เด็กสาว คนข้ามเพศ หรือบุคคลในกลุ่มเปราะบาง การที่ร่างกายของคนเหล่านี้ถูกควบคุม หรือเปลี่ยนเป็นวัตถุลามกโดยไม่ยินยอม คือการตอกย้ำอำนาจของโครงสร้างชายเป็นใหญ่ ที่ยังคงมองว่าผู้หญิงเป็นแค่สิ่งของที่ใครก็สามารถสร้าง แปลง และเผยแพร่ได้ โดยไม่ต้องรับผิดชอบ

หากรัฐยังไม่มีกฎหมายรองรับ

หากสังคมยังมองว่าเป็นเรื่องตลก

หากแพลตฟอร์มยังปล่อยให้คลิปเหล่านี้กระจายอย่างไร้การควบคุม

สิทธิในเพศและร่างกายของเราทุกคน ก็ยังคงถูกคุกคามในโลกที่ร่างกายปลอมสร้างได้ในไม่กี่วินาที

อ้างอิง:

https://www.cbsnews.com/news/ai-generated-porn-scandal-university-of-hong-kong/

https://edition.cnn.com/2025/05/19/tech/ai-explicit-deepfakes-trump-sign-take-it-down-act

https://www.mdes.go.th/law/detail/3516-พระราชบัญญัติว่าด้วยการกระทำความผิดเกี่ยวกับคอมพิวเตอร์-พ-ศ–๒๕๕๐

https://mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained

https://www.qmul.ac.uk/law/news/2025/items/deepfakes-and-the-law-why-britain-needs-stronger-protections-against-technology-facilitated-abuse.

https://www.scmp.com/news/hong-kong/education/article/3318647/hong-kong-student-warned-ai-porn-case-not-closed-despite-formal-apology

https://www.springnews.co.th/digital-tech/technology/846179

https://www.thairath.co.th/entertain/news/2869532

https://web2016.hrdi.or.th/InternalRules/Detail/1468

Tags: , , , ,