หุ่นยนต์และปัญญาประดิษฐ์เป็นเทคโนโลยีที่เข้ามามีบทบาทกับงานหลายๆ รูปแบบ สำหรับ AI มันถูกเอามาใช้ประมวลผลวิเคราะห์ข้อมูล และแสดงผลการวิเคราะห์ข้อมูลแก่เราในรูปแบบต่างๆ เช่น เป็นคู่สนทนาแบบ Chatbot เป็นผู้ช่วยส่วนตัว หรือเป็นผู้วิเคราะห์ฐานข้อมูลให้เรา เพราะโครงข่ายประสาทเทียม (artificial neural network) ถูกเขียนอัลกอริทึมให้สามารถรวบรวมและวิเคราะห์ข้อมูลได้หลากหลายรูปแบบ

ข้อมูลที่เก็บจากการใช้อินเทอร์เน็ตเป็นข้อมูลจำนวนมหาศาล เกินกว่าที่มนุษย์จะนับเองได้ เช่น Netflix ใช้ AI เพื่อประมวลผล วิเคราะห์ข้อมูลของผู้ใช้ และแนะนำรายการที่น่าจะเหมาะกับผู้ใช้แต่ละคน หรือธนาคารในประเทศไทยเองก็มีแนวโน้มที่จะพึ่งพาการประมวลผลจากปัญญาประดิษฐ์เช่นกัน

AI : ที่เราเห็น ไม่ใช่ทั้งหมด

การนำ AI มาใช้เป็นส่วนหนึ่งของธุรกิจไม่ใช่เรื่องเกินจริง เพราะว่าการวิเคราะห์และทำนายข้อมูลจำนวนมากเป็นงานหลักของโครงข่ายประสาทเทียม นั่นหมายความว่า AI ที่เราจะได้พบเจอในอนาคตอันใกล้ ไม่ใช่ AI ที่จะมาแบบในหนังที่มีรูปร่างเป็นมนุษย์เพื่อพูดโต้ตอบกับเรา แต่จะมาในรูปแบบของโปรแกรมอัจฉริยะที่ประมวลผลข้อมูลต่างๆ ให้แก่ธุรกิจ

ถ้าใกล้ตัวเราที่สุดก็คือผู้ช่วยส่วนตัวในสมาร์ตโฟน แต่ผู้ช่วยส่วนตัวที่เราใช้งานนั้นเป็นแค่ส่วนหนึ่งของ AI ที่แท้จริง ซึ่งอยู่ในฐานข้อมูลของบริษัทที่เราใช้บริการ อย่าง Siri ซึ่งเป็นของแอปเปิล ซึ่ง Siri ที่โต้ตอบกับเราถูกประมวลผลโดยโครงข่ายประสาทเทียมของแอปเปิลอีกที และข้อมูลและพฤติกรรมของผู้ใช้ก็จะถูกส่งกลับไปที่ฐานข้อมูลของแอปเปิล เมื่อเป็นเช่นนี้ เราจึงหลีกเลี่ยงไม่ได้ที่จะต้องเข้าไปยุ่งเกี่ยวกับสังคมที่มี AI เข้ามาเป็นส่วนหนึ่ง แม้แต่ AI แบบแคบที่ทำหน้าที่เฉพาะประมวลผลข้อมูลลูกค้า

ประเด็นที่น่าสนใจก็คือ อนาคตจะกลายเป็นอย่างไร หากมี AI เข้ามาเป็นองค์ประกอบหนึ่งของสังคม

เมื่อเทคโนโลยี กลายเป็นประเด็นทางปรัชญา

เทคโนโลยีกลายเป็นหัวข้อเฉพาะทางปรัชญา เมื่อนักปรัชญาอย่าง มาร์ติน ไฮเด็กเกอร์ (Martin Heidegger) เสนอแนวคิดที่ทำให้เห็นว่า เทคโนโลยีเป็นกรอบที่กำหนดความเข้าใจของเราที่มีต่อโลก งานเขียนเรื่อง ‘Question Concerning Technology’ เมื่อปี 1954 เป็นการวิพากษ์เทคโนโลยีสมัยใหม่ ซึ่งหมายถึงเทคโนโลยีที่สร้างขึ้นมาจากความรู้วิทยาศาสตร์

สำหรับไฮเด็กเกอร์แล้ว เทคโนโลยีสมัยใหม่มาพร้อมกับวิธีคิดที่ว่าโลกนี้กลายเป็นวัตถุและแหล่งทรัพยากรพร้อมใช้ เพราะว่าความรู้แบบวิทยาศาสตร์เป็นการศึกษาโลกในฐานะวัตถุ ตัวอย่างที่มีชื่อเสียงในงานเรื่องไฮเด็กเกอร์ก็คือ เขื่อนผลิตไฟฟ้าที่กั้นแม่น้ำไรน์ องค์ความรู้ทางด้านวิทยาศาสตร์ทำให้เกิดนวัตกรรมที่เข้าไปจัดการกับแม่น้ำแล้วเปลี่ยนแม่น้ำให้กลายเป็นแหล่งพลังงาน ตัวอย่างของไฮเด็กเกอร์แสดงให้เห็นว่า เทคโนโลยีสมัยใหม่กำลังตีกรอบความเข้าใจเราให้มองเห็นความหมายของแม่น้ำในแง่มุมทรัพยากรเท่านั้น ซึ่งไฮเด็กเกอร์ถือว่าเป็นอันตราย ถ้าหากเราจะมองโลกตามที่เทคโนโลยีกำหนดให้เราเพียงอย่างเดียว

งานเขียนของไฮเด็กเกอร์ถูกใช้เป็นจุดตั้งต้นสำหรับการศึกษาปรัชญาเทคโนโลยี เพราะมันแสดงให้เห็นว่า เทคโนโลยีมีมิติที่ลึกซึ้งกว่าเรา เรามองเห็นว่าเป็นเพียงเครื่องมือ แต่เทคโนโลยีเป็นสิ่งที่สร้างขึ้นมาจากความรู้แบบใดแบบหนึ่งและเทคโนโลยีมีเป้าหมายของมันเสมอ งานเขียนของไฮเด็กเกอร์ชวนให้เราฉุกคิด เพื่อจะเป็นอิสระจากการถูกกำหนดด้วยเป้าหมายของเทคโนโลยี

ตั้งแต่ไฮเด็กเกอร์มาจนถึงปัจจุบัน การศึกษาปรัชญาเทคโนโลยีมีความเห็นร่วมกันอย่างหนึ่งคือ เทคโนโลยีถูกสร้างขึ้นมาจากความรู้เพื่อนำไปสู่เป้าหมายบางอย่าง และเทคโนโลยีหมายถึงระบบการใช้งานในสังคมทั้งหมด

ในกรณีของ Siri  ซึ่งเป็นผู้ช่วยส่วนตัวของทุกคนที่ใช้ iPhone แต่ Siri เองจะต้องทำงานผ่านระบบปฏิบัติการ iOS และจะต้องมีอุปกรณ์ที่ใช้ระบบปฏิบัติการ iOS ซึ่งอุปกรณ์ iOS ก็เป็นอุปกรณ์อิเล็กทรอนิกส์ และต้องใช้พลังงานไฟฟ้า นี่ยังไม่นับนักออกแบบและนักพัฒนาระบบให้แก่ Siri จะเห็นได้ว่าตัวเทคโนโลยีนั้นแยกไม่ออกจากระบบและสังคมที่แวดล้อมตัวมันเอง

AI ไม่ใช่แค่เครื่องมือ แต่ส่งผลกับทั้งสังคม

ศักยภาพของ AI เป็นสิ่งที่คาดเดาไม่ได้ เพราะมันประยุกต์ใช้กับกิจกรรมต่างๆ ในสังคมหลากหลายรูปแบบ ตั้งแต่ควบคุมโรงงานอุตสาหกรรม เป็นเครื่องจักรสังหารในเครื่องบินรบไร้คนขับ เป็นหมอ หรือแม้กระทั่งดูแลผู้สูงอายุ

สาเหตุที่ศักยภาพของมันมีหลากหลายก็เพราะว่า การประมวลผลข้อมูลมีรูปแบบที่ต่างออกไปในกิจกรรมต่างกัน เช่น การเรียนรู้ที่จะทิ้งระเบิดไม่ให้พลาดเป้า ต้องอาศัยระบบที่สามารถแยกแยะพิกัดของผู้ก่อการร้ายออกจากที่อยู่ของพลเรือน แต่การเรียนรู้ของระบบธนาคาร ความสำคัญไม่ได้อยู่ที่การระบุตำแหน่งของลูกค้า แต่อยู่ที่ความปลอดภัยของระบบการเงินและการวิเคราะห์ข้อมูลลูกค้า เพื่อสร้างผลิตภัณฑ์ทางการเงินใหม่ๆ

เมื่อพูดถึงประเด็นปรัชญาในการใช้ AI ในสังคม แนวคิดของนักปรัชญาที่น่าสนใจคือแนวคิดของ ปีเตอร์-พอล เฟอร์เบค (Peter-Paul Verbeek) นักปรัชญาที่เป็นคณะกรรมการด้านจริยธรรมในงานประชุมด้านจริยธรรมหุ่นยนต์ของยูเนสโกเมื่อปลายปีที่ผ่านมา

แนวคิดของเฟอร์เบคมีความน่าสนใจก็คือ เทคโนโลยีเป็นตัวกลาง (Mediation) ที่มีส่วนในการกำหนดพฤติกรรมและกิจกรรมต่างๆ ของเรา เฟอร์เบคเป็นหนึ่งในกลุ่มนักปรัชญาเทคโนโลยีที่เรียกว่า ‘หลังปรากฏการณ์วิทยา’ (Postphenomenology) ที่มีแนวคิดว่า เทคโนโลยีแยกไม่ออกจากตัวเราและการกระทำของเรา ยิ่งไปกว่านั้นแนวคิดของเฟอร์เบคเสนอว่าเทคโนโลยียังหลอมรวม (Merge) ตัวเราเข้ากับสิ่งแวดล้อมของเทคโนโลยีด้วย เช่น ระบบเรียกแพทย์อัตโนมัติที่เชื่อมกับอุปกรณ์ที่สวมใส่อยู่ในผู้สูงอายุ หรือเทคโนโลยี AR (Augmented Reality) ซึ่งการแสดงผลของเทคโนโลยีกับโลกกายภาพเป็นหนึ่งเดียวกัน

แนวคิดของเฟอร์เบคพัฒนามาจากแนวคิดแบบไฮเด็กเกอร์ที่ว่า เทคโนโลยีกำหนดความเข้าใจที่เรามีต่อโลก แต่แง่มุมที่เฟอร์เบคเสนอก็คือ ทุกกิจกรรมของเราสัมพันธ์กับการใช้เทคโนโลยีแบบใดแบบหนึ่งเสมอ

อย่างที่พูดไว้ข้างต้นว่าเทคโนโลยีแท้จริงแล้วอยู่ในระบบและบริบทการใช้ในสังคมที่แวดล้อมมันอยู่ การมี AI จึงไม่ใช่เครื่องมือของใครคนใดคนหนึ่ง แต่กำลังจะเข้ามามีบทบาทกับกิจกรรมโดยรวมทั้งหมดของสังคม ในงานประชุมของยูเนสโกเมื่อปลายปีที่ผ่านมาเฟอร์เบคจึงเสนอแนวทางในการออกนโยบายเกี่ยวกับ AI ว่ามีแง่มุมทางจริยธรรมก็คือ การออกแบบเทคโนโลยีในอนาคตหลีกเลี่ยงแง่มุมทางจริยธรรมไม่ได้ เพราะที่สุดแล้ว เทคโนโลยีจะสร้างผลกระทบกับสังคมโดยรวม

AI จะอยู่ในสังคมอย่างไร

จากที่กล่าวมาข้างต้นจะเห็นว่า AI ยังนับเป็นเทคโนโลยีประเภทหนึ่ง และเทคโนโลยีเป็นสิ่งที่แยกไม่ออกจากสังคมเทคโนโลยีซึ่งก็คือระบบของการทำงานที่แวดล้อมมันอยู่ ดังนั้นผลกระทบจากการใช้ AI ก็คือผลกระทบที่จะเกิดขึ้นกับสังคมโดยรวม ถ้าหากว่า AI ที่ฉลาดมากๆแปลว่ามันจะฉลาดกว่าสังคมโดยรวมทั้งหมดรึเปล่า? ที่จริงมันไม่ได้เป็นแบบนั้น ลูชาโน ฟลอริดิ (Luciano Floridi) นักปรัชญาสารสนเทศจากอ็อกซ์ฟอร์ดอธิบายว่า ความฉลาดของ AI จำกัดอยู่ที่ระบบที่แวดล้อมมันอยู่ และ AI ที่จะเข้ามามีบทบาทในอนาคตอันใกล้เป็น AI แบบแคบซึ่งทำงานได้เฉพาะหน้าที่แบบใดแบบหนึ่งเท่านั้น

ปัญหาเรื่องจริยธรรมหุ่นยนต์ที่สำคัญคือ ความรับผิดชอบของการกระทำที่เกิดจากหุ่นยนต์ (รวมถึง AI) จะเป็นอย่างไร ถ้าหากระบบที่ทำงานและตัดสินใจด้วยตัวเองเกิดความผิดพลาด ถ้าหากรถไร้คนขับชนคนบนท้องถนน ใครจะเป็นผู้รับผิดชอบ ซึ่งประเด็นนี้มีความยุ่งยากกว่ากรณีรถยนต์ที่มนุษย์ควบคุม เพราะความรับผิดชอบเป็นของคนที่ควบคุมรถ (ซึ่งรายละเอียดจะยังไม่พูดถึงในที่นี้) และอีกปัญหาหนึ่งคือ ความสัมพันธ์ทางศีลธรรมระหว่างมนุษย์กับหุ่นยนต์จะมีลักษณะอย่างไร ความสัมพันธ์ระหว่างมนุษย์กับหุ่นยนต์จะเหมือนหรือแตกต่างกับความสัมพันธ์ระหว่างมนุษย์กับมนุษย์ด้วยกัน

ในงานปรัชญาเรื่อง Can we trust robot? (เราจะไว้วางใจหุ่นยนต์ได้หรือไม่?) ของ มาร์ค คูเคอร์เบิร์ก (Mark Coekelbergh) อธิบายถึงปัญหาความไว้วางใจว่า ความไว้วางใจที่เรามีต่อหุ่นยนต์จะมีสถานภาพทางศีลธรรม เหมือนกับความไว้วางใจที่เรามีต่อมนุษย์ได้หรือไม่?

คูเคอร์เบิร์กให้คำตอบที่น่าสนใจว่า เราได้ให้ความไว้วางใจกับเทคโนโลยีหุ่นยนต์ไปแล้วตั้งแต่ต้น เพราะว่าเราอยู่ในสังคมที่เราพัฒนาหุ่นยนต์ขึ้นมาในฐานะเทคโนโลยีรูปแบบหนึ่ง ความคิดนี้สอดคล้องกับแนวคิดแบบหลังปรากฏการณ์วิทยา แต่ข้อเสนอของคูเคอร์เบิร์กไม่ได้บอกให้ว่า เราไว้วางใจหุ่นยนต์โดยสนิทใจ เพียงแต่หุ่นยนต์กลายเป็นสิ่งที่อยู่ในความสัมพันธ์ของความไว้วางใจ

หมายความว่า ความไว้วางใจที่มีต่อหุ่นยนต์อาจมากหรือน้อย ขึ้นอยู่กับวัฒนธรรมซึ่งมีปัจจัยให้เกิดความไว้วางใจเทคโนโลยีหุ่นยนต์แตกต่างกัน เช่น บทบาทของมนุษย์-หุ่นยนต์ในสังคม การสื่อสาร-การใช้ภาษาระหว่างมนุษย์และหุ่นยนต์ หรืออิสรภาพ-การกระทำของหุ่นยนต์อยู่ภายใต้การควบคุมของมนุษย์เพียงใด

แนวคิดของคูเคอร์เบิร์กแสดงให้เห็นว่า ความไว้วางใจที่เรามีต่อเทคโนโลยีเป็นส่วนหนึ่งของความสัมพันธ์ทางศีลธรรม ไม่ต่างจากความไว้วางใจที่เรามีต่อมนุษย์ด้วยกัน เพราะว่าเราสามารถประเมินปัจจัยต่างๆ เพื่อให้เราตัดสินใจว่า จะไว้วางใจเทคโนโลยีได้เพียงใด ไม่ต่างจากการประเมินว่าเราจะเชื่อใจมนุษย์ด้วยกันได้มากน้อยเพียงใด

ท้ายที่สุดแล้วเมื่อ AI เข้ามาเป็นส่วนหนึ่งของสังคม ก็เท่ากับว่ามันกำลังเข้ามาอยู่ในความสัมพันธ์ทางศีลธรรม ซึ่งเป็นการตัดสินใจบนคุณค่าหรือบรรทัดฐานบางอย่าง ว่าเราจะให้เทคโนโลยีนี้อยู่ร่วมกับเราในรูปแบบใด และที่สำคัญก็คือ ตราบใดที่เราเป็นส่วนหนึ่งของสังคมเทคโนโลยี เราในฐานะสมาชิกของสังคมจึงเลี่ยงไม่ได้ที่จะต้องประเมินและกำหนดรูปแบบของมัน

Tags: , , , ,