“Data is the new oil.” ประโยคที่ถูกพูดในวงธุรกิจมากกว่า 10 ปี มาในวันนี้ Data ที่ว่ายิ่งมีความสำคัญมากขึ้นไปอีกขั้น จากการมาของเทคโนโลยีปัญญาประดิษฐ์ (Artificial Intelligence: AI) โดยเฉพาะ ‘แชตบอต’ (Chatbot) ที่ใช้โมเดลภาษาขนาดใหญ่ (Large Language Model: LLM) ทำให้สามารถตอบโต้กับมนุษย์ได้อย่างชาญฉลาด
แม้ว่าโลกยุคก่อนการมาของ AI ข้อมูลของผู้ใช้งานจะถูกเก็บได้ผ่านคุกกี้ (Cookies) ท่องในเว็บไซต์ต่างๆ การกดไลก์หรือให้ความสนใจคอนเทนต์บนโซเชียลมีเดีย ตลอดจนการเปิดสัญญาณ GPS ในโทรศัพท์มือถือ จนทำให้บริษัทเทคโนโลยีสามารถนำข้อมูลที่ได้รับไปวิเคราะห์และทำเงินจากการขายโฆษณาและงานการตลาด
ทว่าในยุคปัจจุบัน ผู้คนหันมาใช้งาน ‘แชตบอต’ ไม่ว่าจะเป็น ChatGPT, Gemini หรือ Perplexity เพื่อสืบค้นข้อมูลหรือใช้เป็นเพื่อนร่วมชีวิตมากขึ้น โดยหนึ่งในปัจจัยสำคัญที่ทำให้แชตบอตมีความฉลาดมากขึ้นคือ การป้อนคำสั่ง (Prompt) ของผู้ใช้งานที่เข้าไปมีปฏิสัมพันธ์
ในประเด็นนี้ เจนนิเฟอร์ คิง (Jennifer King) นักวิจัยด้านนโยบายข้อมูลและความเป็นส่วนตัวประจำสถาบัน Stanford HAI (Stanford University Institute for Human-Centered Artificial Intelligence) ให้ความเห็นไว้ว่า แม้ว่า AI จะก่อให้เกิดความเสี่ยงในด้านความเป็นส่วนตัวแบบที่ผู้ใช้งานเทคโนโลยีทุกคนเคยเจอตลอดทศวรรษที่ผ่านมา แต่สิ่งที่สร้างความแตกต่างคือ ‘ขนาดการเก็บข้อมูล’ ที่มีมากมหาศาล อีกทั้งผู้ใช้งานในฐานะปัจเจก ‘ไม่สามารถควบคุมได้’ ว่า ข้อมูลใดของผู้ใช้งานที่ถูกเก็บจะถูกใช้ต่ออย่างไร
นอกจากนั้น AI สมัยนี้สามารถใช้ Generative AI (Gen AI) เพื่อนำข้อมูลหรืออัตลักษณ์ส่วนบุคคลมาใช้หลอกลวงผู้คนแบบเฉพาะเจาะจง (Spear-phishing) ได้ เช่น กรณีการโคลนนิ่งเสียงโทรเข้ามาหาเหยื่อเพื่อข่มขู่ไถ่เงิน
อย่างไรก็ตามคิงมองว่า สมัยนี้มีทิศทางป้องกันความเป็นส่วนตัวได้ดีขึ้นจากการบังคับใช้กฎหมาย เช่น การกำหนดให้ผู้ใช้งาน ‘ต้องอนุญาต’ เสียก่อนถึงจะดำเนินการเก็บข้อมูลได้ รวมถึงมีบทบังคับให้บริษัทเทคโนโลยีลบข้อมูลในกรณีที่นำไปใช้ไม่เหมาะสม
คิงยกตัวอย่างบริษัทเทคโนโลยีชั้นนำของสหรัฐฯ ที่ให้ความสำคัญเรื่องของความเป็นส่วนตัว (Privacy) อย่าง Apple ได้ประกาศฟีเจอร์ ‘App Tracking Transpapency’ (Apple ATT) ไปเมื่อปี 2021 เพื่อให้ผู้ใช้งาน iPhone หรือผลิตภัณฑ์ใน Ecosystem สามารถจำกัดการเข้าถึงข้อมูลของแอปพลิเคชัน Third-party ได้ทันทีที่มีการติดตั้งแอปฯ ใหม่ ซึ่งมีรายงานว่า ร้อยละ 80-90 ของผู้ใช้งาน ‘ไม่อนุญาต’ ให้แอปฯ Third-party ติดตามข้อมูล
คิงพร้อมด้วย แคโรไลน์ ไมน์ฮาร์ดต์ (Caroline Meinhardt) ผู้จัดการฝ่ายวิจัยนโยบายของศูนย์ Stanford HAI ได้เสนอ 3 แนวทางที่จะลดความเสี่ยงต่อความเป็นส่วนตัวของข้อมูล ดังนี้
1. ให้ผู้จัดเก็บข้อมูลเก็บข้อมูลเท่าที่จำเป็นจริงๆ ผ่านแนวคิด ‘Privacy by default’ รวมทั้งต้องมีการขอความยินยอมมาใช้
2. สร้างความโปร่งใสและความรับผิดชอบของข้อมูลในทุกขั้นตอน ซึ่งต้องเป็นหัวใจสำคัญในการกำกับดูแลที่เกี่ยวข้องกับความเป็นส่วนตัว
3. รัฐและหน่วยงานที่เกี่ยวข้องต้องสนับสนุนกลไกการกำกับดูแลและการพัฒนาโครงสร้างที่เกี่ยวข้องกับข้อมูล เช่น ตัวกลางการจัดการข้อมูล และระบบการอนุญาตการใช้ข้อมูล เพื่อให้ประชาชนสามารถเข้าถึงข้อมูล รวมถึงการให้อนุญาตการเข้าถึงข้อมูลได้อย่างมีประสิทธิภาพมากขึ้น
ทั้งนี้จากการเปลี่ยนแปลงของเทคโนโลยีและการเข้ามาของ AI ทำให้หลายประเทศต่างออกกฎหมายเพื่อคุ้มครองของผู้บริโภค อย่างสหภาพยุโรป (European Union: EU) พระราชบัญญัติ (พ.ร.บ.) ปัญญาประดิษฐ์ (EU Artificial Intelligence Act) ที่ห้ามไม่ให้ใช้ AI บางรูปแบบโดยเด็ดขาด รวมทั้งกำหนดรูปแบบการใช้งานให้ต้องปฏิบัติตามข้อกำหนดด้านธรรมาภิบาล การจัดการความเสี่ยง ตลอดจนความโปร่งใสอย่างเข้มงวด
แม้ว่าใน พ.ร.บ.ดังกล่าวจะไม่ได้วางข้อกำหนดข้อห้ามเฉพาะในเรื่องความเป็นส่วนตัวของข้อมูลโดยตรง แต่มีการระบุแนวทางไม่ให้ปฏิบัติ เช่น การเก็บข้อมูลใบหน้าจากอินเทอร์เน็ตหรือกล้องวงจรปิดนำไปสร้างฐานข้อมูลจดจำใบหน้า
ขณะที่ประเทศจีนได้ออกมาตรการชั่วคราวกำกับการใช้ Gen AI ในชื่อ ‘Interim Measures for the Administration of Generative Artificial Intelligence Services’ เมื่อปี 2023 ซึ่งถือเป็นประเทศแรกๆ ของโลกที่ออกมาตรการกำกับดูแลเรื่อง AI
โดยกฎหมายที่ออกมานี้มีการบัญญัติว่าด้วยการเรื่องการใช้ Gen AI ที่ต้องให้ความเคารพสิทธิตามกฎหมายของบุคคล รวมถึงห้ามไม่ให้ใช้ Gen AI โดยให้เกิดความอันตรายทั้งทางการและทางใจกับผู้อื่น รวมถึงห้ามไม่ให้ละเมิดสิทธิในภาพลักษณ์ ชื่อเสียง ความเป็นส่วนตัว ตลอดจนข้อมูลส่วนตัวของผู้อื่นด้วย
สำหรับประเทศไทยเองก็มี พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล (PDPA) ที่ประกาศบังคับใช้เมื่อปี 2022 เพราะโดยในหลักการสำคัญ AI จำเป็นต้องมีการเก็บรวบรวมข้อมูลจำนวนมาก เพื่อนำไปประมวลผล แต่ในหลักการของ PDPA จะเน้นไปที่ ‘การลด’ ปริมาณข้อมูล รวมทั้งจำกัดวัตถุประสงค์การใช้เท่าที่จำเป็น
โดยในกฎหมายฉบับนี้จะอนุญาตให้ประชาชนเข้าถึง ดำเนินการแก้ไข หรือขอลบข้อมูลของตนเองได้ ขณะเดียวกันยังมีการกำหนดให้แจ้งเตือนการละเมิดข้อมูลต่อหน่วยงานที่เกี่ยวข้องและบุคคลที่ได้รับผลกระทบโดยทันที
ทั้งนี้หากผู้อ่านสนใจในประเด็น AI ในยุคปัจจุบันว่าจะมีผลกระทบอย่างไรต่อชีวิตของเรา สามารถเจอกันได้ที่งาน ‘AI : Ultimate Opportunity or Opponent’ ในโอกาสครบรอบ 9 ปี The Momentum ที่โรงแรม Hilton Bangkok Grande Asoke ในวันที่ 20 ตุลาคม 2568 โดยในงานครั้งนี้มี เรซา ซาดรี (Reza Sadri) อาจารย์จาก California Institute of Technology (Caltech) มาช่วยสังเคราะห์ AI
และอีกงานวันที่ 23 ตุลาคม 2568 ในเวทีเสวนาพิเศษ ‘THE (AI)DGE OF TOMORROW : Navigating the New Era of Thai Talent’ งานที่จะพาคุณมองข้ามขอบปัจจุบัน สู่พื้นที่ที่ AI และมนุษย์จะเติบโตไปด้วยกัน เวลา 13.00-15.00 น. ที่ SCBX Next Tech ชั้น 4 ศูนย์การค้าสยามพารากอน
อ้างอิง
– https://hai.stanford.edu/news/privacy-ai-era-how-do-we-protect-our-personal-information
– https://www.bangkokbiznews.com/blogs/tech/innovation/1139273
– https://www.ibm.com/think/insights/ai-privacy
Tags: AI, ความเป็นส่วนตัว, privacy, เอไอ