หากวลียอดนิยมในการเลือกตั้งรอบที่แล้วคือ ‘ดิจิทัล’ การเลือกตั้งคราวนี้ก็มาพร้อมกับคำศัพท์ใหม่อย่าง ‘AI’ หรือปัญญาประดิษฐ์ (Artificial Intelligence) ซึ่งปรากฏอยู่ในนโยบายแทบทุกพรรคการเมือง

เรื่องนี้ไม่น่าแปลกใจนัก เพราะหากย้อนกลับไปเมื่อการเลือกตั้งครั้งก่อนหน้า AI ยังอยู่ในระหว่างการพัฒนาโดยมีลักษณะเป็นแชตบอตที่ชาญฉลาดเป็นพิเศษมากกว่าจะนำมาประยุกต์ใช้งานจริง แต่ปัจจุบันปัญญาประดิษฐ์ก้าวล้ำไปมาก โดยมีการนำไปปรับใช้ทั้งในภาครัฐและภาคธุรกิจอย่างแพร่หลายกว่าในอดีต พร้อมกับคำอวดอ้างสรรพคุณอย่างการสร้างความเท่าเทียมเป็นธรรม เพิ่มประสิทธิภาพ รวมถึงลดต้นทุนและความผิดพลาดที่อาจเกิดจากมนุษย์

แน่นอนว่าเจ้า AI เป็นประดิษฐกรรมที่น่าอัศจรรย์ แต่การนำเทคโนโลยีมาใช้แบบไม่ลืมหูลืมตาย่อมนำมาซึ่งความเสี่ยง เพราะหลายครั้งประโยชน์ของมันอาจเป็นเพียงการอวดอ้างสรรพคุณเกินจริง เฉกเช่นที่ อาร์วินด์ นารายานัน (Arvind Narayanan) และ ซายาช กาปูร์ (Sayash Kapoor) สองนักวิทยาการคอมพิวเตอร์จาก Princeton University เรียกว่า ‘น้ำมันงูแห่งโลก AI’ (AI Snake Oil)

ปัญหาสำคัญในแวดวงปัญญาประดิษฐ์คือการมองความสามารถของ AI แบบเหมารวม เราเห็นความอัศจรรย์ของ AI ในการโต้ตอบ อธิบายเรื่องราว แต่งบทกลอน หรือเสกสร้างภาพหรือวิดีโอขึ้นมาตามคำสั่ง นี่คือชุดความสามารถของ AI แบบรู้สร้าง (Generative AI) แต่ในหลายบริบท เราต้องการใช้ AI ในการวิเคราะห์ข้อมูลเพื่อคาดการณ์ เช่น ความเสี่ยงด้านสุขภาพ ความเสี่ยงต่อการทุจริต ความสามารถในการชำระหนี้ หรือการใช้งบประมาณรักษาผู้ป่วย การทำสิ่งเหล่านี้อาศัย AI ‘คนละแบบ’ โดยมีชื่อเรียกว่า AI แบบทำนายผล (Predictive AI) ซึ่งปัจจุบันยังมีข้อจำกัด และหากไม่ระมัดระวังก็อาจสร้างผลร้ายมากกว่าผลดี

ข้อจำกัดของการทำนายผลทางสังคม

ความแม่นยำของ AI ทำนายผลเองขึ้นอยู่กับว่า เราใช้ AI เพื่อคาดการณ์อะไร

AI สามารถใช้งานได้ดีหากการคาดการณ์นั้นอิงกับกฎเกณฑ์ทางวิทยาศาสตร์ เช่น AI AlphaFold ของ Google สามารถคาดการณ์โครงสร้างโปรตีนจากลำดับกรดอะมิโนได้อย่างแม่นยำ เช่นเดียวกับการใช้ AI เพื่อตรวจหาภาวะเบาหวานขึ้นจอตา (Diabetic Retinopathy) ด้วยภาพถ่ายจอตาของผู้ป่วย ทั้ง 2 กรณีนี้มีรูปแบบความสัมพันธ์ที่ค่อนข้างตรงไปตรงมาและไม่เปลี่ยนแปลงเมื่อเวลาผ่านไป AI จึงสามารถใช้งานได้ดี

ในทางตรงกันข้าม ความพยายามที่จะทำนายพฤติกรรมมนุษย์หรือผลลัพธ์ทางสังคมกลับล้มเหลวไม่เป็นท่า ไม่ว่าจะเป็นความเสี่ยงในการกระทำผิดซ้ำ ผลงาน ความน่าเชื่อถือในการชำระหนี้ หรือผลสัมฤทธิ์ทางการศึกษา สาเหตุสำคัญก็เนื่องจากความสัมพันธ์ระหว่างตัวแปรต่างๆ กับผลลัพธ์ทางสังคมเหล่านี้มีความสลับซับซ้อน และอาจเปลี่ยนแปลงอยู่เสมอตามบริบททางเศรษฐกิจและสังคม

สมมติฐานดังกล่าวได้รับการพิสูจน์อย่างเป็นวิทยาศาสตร์ ผ่านการแข่งขันวิเคราะห์ข้อมูลจากโครงการศึกษาครอบครัวเปราะบางและสุขภาวะเด็ก (Fragile Families and Child Wellbeing Study) นี่คือชุดข้อมูลคุณภาพสูงที่รวบรวมหลากหลายตัวแปรครอบคลุมตั้งแต่สุขภาพ รายได้ การศึกษา รวมถึงปัจจัยแวดล้อมต่างๆ จากหลายพันครอบครัวในสหรัฐอเมริกา โดยมีการติดตามเก็บข้อมูลทุกปีตั้งแต่แรกเกิดไปจนถึงวัยผู้ใหญ่ โจทย์ของทีมวิจัย 160 ทีมจากทั่วโลก คือการวิเคราะห์ข้อมูลชุดนี้ตั้งแต่แรกเกิดจนถึง 9 ขวบ โดยใช้แบบจำลองใดก็ได้เพื่อคาดการณ์ตัวแปร 6 ด้าน ตอนที่เด็กๆ อายุ 15 ปี แล้วนำมาเปรียบเทียบกับตัวแปรจริงที่ไม่เคยเปิดเผยที่ไหน

ผลลัพธ์ที่ได้อาจทำให้หลายคนประหลาดใจ เนื่องจากโมเดลการเรียนรู้ด้วยคอมพิวเตอร์ (Machine Learning) ที่ซับซ้อนและล้ำสมัยที่สุดเอาชนะสมการถดถอยแสนธรรมดาที่ใช้ตัวแปรไม่กี่ตัวเพียงเล็กน้อยเท่านั้น แต่ผลลัพธ์โดยรวมยังห่างไกลจากคำว่าแม่นยำ ทีมวิจัยจึงสรุปว่า ข้อมูลมหาศาล พลังในการคำนวณ และอิสระในการคิดหาแบบจำลองนั้นก็ยังไม่เพียงพอที่จะทำนายผลลัพธ์ทางสังคม ปัญหาจึงไม่ได้อยู่ที่เทคนิควิธีหรือปริมาณข้อมูล แต่ผลลัพธ์ทางสังคมอาจเป็นสิ่งที่ไม่สามารถทำนายผลลัพธ์ได้ตั้งแต่ต้น

อย่างไรก็ตาม แม้มีการศึกษายืนยันว่า การใช้ AI ทำนายผลลัพธ์ทางสังคมเป็นเรื่องที่แทบจะเรียกได้ว่าเป็นไปไม่ได้ แต่กระแสของ AI และความหวังที่จะใช้ ‘เทคโนโลยี’ เพื่อแก้สารพัดปัญหาและเพิ่มประสิทธิภาพนั้นกลับเปิดทางให้เหล่าพ่อค้าหัวใสสามารถจำหน่ายผลิตภัณฑ์น้ำมันงูแห่งโลก AI ในตลาดได้สำเร็จ ก่อนที่จะถูกเปิดโปงว่า การใช้ AI ทำนายผลนั้นสร้างความเสียหายมากมายเพียงใด

หายนะจาก AI ทำนายผล

ปัญญาประดิษฐ์และอัลกอริทึมการเรียนรู้โดยคอมพิวเตอร์ซ่อน ‘อคติ’ ไว้อย่างแนบเนียน เนื่องจากกระบวนการคิดก่อนผลิตออกมาเป็นผลลัพธ์นั้นเปรียบเสมือนกล่องดำ ที่พวกเรารวมถึงนักวิทยาการคอมพิวเตอร์ที่คิดค้นมันขึ้นมา ก็อาจยังไม่สามารถอธิบายอย่างชัดเจนว่า มันทำงานอย่างไร แต่การใช้เทคโนโลยีที่ดูเป็นวิทยาศาสตร์เช่นนี้ก็ใช่ว่าจะถูกต้องและแม่นยำเสมอไป

หนึ่งในการประยุกต์ใช้ AI ที่หลายบริษัทเริ่มให้ความสนใจคือ การรับสมัครงาน ย้อนกลับไปเมื่อปี 2014 บริษัทยักษ์ใหญ่ด้านเทคโนโลยีเคยพัฒนา AI สำหรับคัดกรองวิศวกรชั้นเยี่ยมที่ปรารถนาอยากร่วมงานกับบริษัท โดยฝึกฝนอัลกอริทึมด้วยข้อมูลประวัติย่อของผู้สมัครงานตลอด 10 ปีที่ผ่านมา อย่างไรก็ตามชุดข้อมูลดังกล่าวมีอคติ โดยเจ้า AI ไปสร้างความสัมพันธ์ระหว่าง ‘เพศชาย’ กับ ‘การทำงานอย่างมีประสิทธิผล’ ซึ่งต่อมาบริษัทพยายามลบล้างอคติดังกล่าว แต่ AI ก็ยังตัดคะแนนผู้สมัครหญิง โดยจับข้อมูลในประวัติย่อที่สะท้อนความเป็นเพศหญิง เช่น เรียนจบจากโรงเรียนหญิงล้วน หรือมีคำว่าผู้หญิงปรากฏในเรซูเม สุดท้ายระบบดังกล่าวก็ล้มเลิกลงไปในที่สุด

อีกหนึ่งกรณีที่เรียกได้ว่า สั่นสะเทือนวงการสาธารณสุขของสหรัฐอเมริกา คืองานวิจัยที่ตีแผ่ว่าพบอคติทางเชื้อชาติในอัลกอริทึมที่ใช้ประเมินว่า ใครควรได้เข้าโครงการจัดการผู้ป่วยที่มีความเสี่ยงสูง (High Risk Care Management) ซึ่งจะได้รับทรัพยากรในการดูแลเพิ่มเติม มีพยาบาลดูแลประจำตัว และป้องกันการเข้าพักรักษาตัวในอนาคต โดยที่คนผิวขาวซึ่งไม่ได้เจ็บป่วยมากนักกลับได้รับเข้าโครงการดังกล่าว ขณะที่คนผิวดำที่เจ็บป่วยหนักกว่าจำนวนหนึ่งกลับถูกปฏิเสธ

สาเหตุเบื้องหลังคือการใช้ค่าแทน (Proxy) ที่ผิดพลาด นักพัฒนาอัลกอริทึมต้องการประเมินความเสี่ยงตามระดับ ‘ความต้องการด้านสุขภาพ’ แต่ความต้องการดังกล่าวเป็นนามธรรม ซึ่งยากที่จะนำมาใช้พัฒนาโมเดล พวกเขาจึงเลือกใช้ค่าแทนระดับความต้องการโดยอิงจาก ‘ค่าใช้จ่ายในการรักษาพยาบาลทั้งหมด’ โดยใช้สมมติฐานว่า ยิ่งคนป่วยหนักก็เท่ากับต้องมีค่าใช้จ่ายมาก แต่สิ่งที่พวกเขามองข้ามคือ ‘ความไม่เป็นธรรมเชิงโครงสร้าง’ ที่คนผิวดำเข้าถึงสถานพยาบาลน้อยกว่า เนื่องจากอุปสรรคทางเศรษฐกิจและสังคม ส่งผลให้ค่าใช้จ่ายในการรักษาพยาบาลน้อยกว่าเป็นเงาตามตัวแม้ว่าจะป่วยหนักเทียบเท่ากับคนผิวขาวก็ตาม ความบกพร่องนี้เองที่กลายเป็นต้นเหตุของอัลกอริทึมที่เลือกปฏิบัติทางเชื้อชาติโดยไม่ได้ตั้งใจ

อคติเช่นนี้พบในระดับประเมินความเสี่ยงที่ใช้อย่างแพร่หลายในกระบวนการยุติธรรมของสหรัฐฯ เช่นกัน อัลกอริทึมดังกล่าวมีชื่อว่า Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) ซึ่งเป็น AI ทำนายความเสี่ยงการกระทำผิดซ้ำ โดยผู้พิพากษามักจะใช้ผลการประเมิน เพื่อประกอบการตัดสินใจการให้ประกันตัว วงเงินประกัน และการลงโทษ อย่างไรก็ตามสำนักข่าว ProPublica ก็ตีแผ่ว่า เครื่องมือดังกล่าวมีอคติต่อคนผิวดำอย่างร้ายแรง โดยมักประเมินความเสี่ยงของคนผิวดำสูงกว่าที่ควรจะเป็น ขณะที่คนผิวขาว แม้จะมีประวัติเคยประกอบอาชญากรรมรุนแรง แต่กลับได้รับการประเมินความเสี่ยงในระดับต่ำ

ยังมีตัวอย่างอีกมากมายของความหายนะที่เกิดจากการใช้ AI ทำนายผล แต่ไม่ได้แปลว่าประเทศไทยห้ามนำ AI มาใช้งาน เพียงแต่เราต้องใช้อย่างระมัดระวังมากยิ่งขึ้น เริ่มตั้งแต่การเปิดเผยอย่างโปร่งใสถึงข้อมูลที่ใช้ในการพัฒนาโมเดลและผลลัพธ์จากแบบจำลอง กำหนดให้มี ‘คน’ ตัดสินใจที่ปลายทางโดยคนคนนั้นต้องเป็นผู้รับผิดชอบ และเปิดช่องทางให้อุทธรณ์ร้องเรียนหากไม่เห็นด้วยกับผลลัพธ์จาก AI 

เอกสารประกอบการเขียน

Measuring the predictability of life outcomes with a scientific mass collaboration

The value of qualitative data in understanding failure in prediction

Why Amazon’s AI-driven high volume hiring project failed

Widely used health care prediction algorithm biased against black people

AI Snake Oil : What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference

Tags: , , , , , , , ,