เมื่อเร็วๆ นี้มีข่าวที่แสดงถึงความก้าวหน้าครั้งสำคัญของระบบปัญญาอัจฉริยะ หรือ ‘AI’ นั่นก็คือ AI ของบริษัทไมโครซอฟต์และอาลีบาบาสามารถทดสอบการอ่านจับใจความได้คะแนนสูงกว่ามนุษย์ (มนุษย์ 82.304 อาลีบาบา 82.44 ไมโครซอฟต์ 82.65)

การทดสอบนี้ ออกแบบให้ AI ตอบคำถามจากแหล่งข้อมูลในวิกิพีเดีย คำถามเช่น “วงดนตรีวงไหนที่เล่นเป็นวงเฮดไลน์ในเวลาพักครึ่งของซูเปอร์โบวล์ครั้งที่ 50” ซึ่งการตอบคำถามจากข้อมูลในวิกิพีเดียจะวัดว่า AI สามารถเข้าใจประโยคและคำถามหรือไม่

การที่ AI สามารถทำคะแนนได้เหนือกว่ามนุษย์แม้ว่าจะเป็นในระดับจุดทศนิยม นั่นแปลว่าขีดความสามารถของ AI ค่อยๆ ก้าวล้ำหน้ามนุษย์แล้วหรือเปล่า

เมื่อสี่ปีก่อนหน้านี้ เคยมีข่าวน่าสนใจเกี่ยวกับการเขียนโปรแกรมให้ AI สามารถเขียนข้อมูลลงในวิกิพีเดียมาแล้ว ซึ่งเขียนบทความวิกิพีเดียไปแล้วสองล้านกว่าเรื่อง (ข้อมูลปี 2014) ถ้ารวมกับเรื่องที่ AI เพิ่งจะเอาชนะการอ่านจับใจความได้ ก็ไม่น่าจะแปลกใจนัก ในเมื่อมันสามารถเขียนข้อมูลลงในวิกิพีเดียได้ และถ้าหากใครใช้ Google Keyboard ก็จะเห็นว่า การทำนายคำที่เราพิมพ์ได้อย่างแม่นยำ รวมไปถึงการแก้ไขตัวอักษรที่พิมพ์ผิด ราวกับว่ามันรู้จักคำที่เราพิมพ์

แต่นั่นไม่ได้แสดงว่า มันเข้าใจ หรืออ่านออก เหมือนที่เราอ่านหนังสือก็ได้

ห้องเรียนภาษาจีน

คำถามที่ว่า เครื่องจักรคิดได้รึเปล่า? เป็นคำถามอมตะที่มีมาตั้งแต่หกสิบกว่าปีที่แล้วที่มีการคิดค้นเครื่องจักรที่สามารถคำนวณสูตรคณิตศาสตร์ โดย อลัน ทัวร์ริง (Alan Turing)

ความคิดเรื่องเครื่องจักรที่คิดได้เหมือนมนุษย์นำไปสู่ความพยายามสร้างปัญญาประดิษฐ์ แต่ในอีกทางหนึ่ง มันเป็นประเด็นสำคัญของการศึกษาปรัชญาด้วย นั่นคือ จิตของมนุษย์คืออะไร? ความคิดของเราอยู่ในสมองที่เป็นอวัยวะ/วัตถุประเภทหนึ่งได้อย่างไร? และเมื่อเปรียบเทียบเครื่องจักรกับการคิดซึ่งเป็นกิจกรรมทางจิต แสดงว่า ถ้าเราสร้างเครื่องจักรที่คิดได้? ปัญหาความลึกลับของจิตมนุษย์ก็จะหมดไปใช่หรือไม่ (ปรัชญาจิตเป็นหนึ่งในสาขาวิชาของปรัชญาที่เปลี่ยนแปลงสูงและเชื่อมโยงกับข้อมูลใหม่ๆ ทางประสาทวิทยาอยู่เสมอ)

หนึ่งในข้อโต้แย้งสำคัญที่เสนอว่า เครื่องจักร ‘คิด’ ไม่ได้เหมือนมนุษย์ ก็คือการอ้างเหตุผลที่ชื่อว่า ห้องเรียนภาษาจีน ของจอห์น เซิร์ล (John Searle) แม้ว่างานเขียนเรื่องนี้จะมีอายุเกือบสี่สิบปีแล้ว แต่ยังคงเป็นรากฐานสำคัญที่นักปรัชญาใช้อ้างอิงเพื่อจะโต้แย้งว่าความคิดของเครื่องจักรไม่เหมือนกับความคิดของมนุษย์

ห้องเรียนภาษาจีนเป็นการทดลองทางความคิดว่า สมมติว่ามีเล็กๆ ห้องหนึ่ง และคนที่นั่งอยู่ในห้องนั้นมีคู่มือการตอบคำถามภาษาจีน (ซึ่งคู่มือนี้ตอบได้ทุกคำถามที่เป็นภาษาจีน) เช่น ถ้าหากมีคำถามส่งเข้ามาว่า “ร้านอาหารที่ได้รับความนิยมมากที่สุดในแถวนี้คือที่ไหน?” คู่มือก็จะบอกว่า ถ้าเห็นประโยคที่เขียนด้วยสัญลักษณ์นี้ ให้ตอบตามคำตอบต่อไปนี้

(ที่มาภาพ: http://www.mind.ilstu.edu/curriculum/searle_chinese_room/searle_chinese_room.php)

จากการทำตามคู่มือในรูป แม้ว่าจะได้คำตอบที่ตรงกับคำถาม แต่มันไม่จำเป็นว่า คนที่เปิดคู่มือในห้องนั้นจะเข้าใจภาษาจีนจริงๆ ในเมื่อการตอบคำถามเป็นการทำตามคู่มือ ห้องเรียนภาษาจีนนี้แสดงถึงเส้นแบ่งสำคัญที่ทำให้เครื่องจักรคิดได้ไม่เหมือนมนุษย์ก็คือ เครื่องจักรทำงานตามคำสั่งและโปรแกรมที่ได้ตั้งเอาไว้ ไม่จำเป็นว่ามันจะต้องเข้าใจคำถามที่ถามเข้าไปในเครื่อง เช่นเดียวกันกับคนที่เปิดคู่มือภาษาจีนเพื่อตอบคำถามโดยที่ไม่ต้องเข้าใจภาษาจีน

การทำงานของเครื่องจักรเป็นการทำงานในระดับวากยสัมพันธ์ (Syntax) ซึ่งเครื่องจักรอ่านได้เพียงสัญลักษณ์ ไม่ได้เข้าใจความหมาย ต่างจากมนุษย์ที่มีความเข้าใจในเชิงอรรถศาสตร์ (Semantic) แนวคิดเรื่องความคิดของมนุษย์เป็นความเข้าใจในระดับอรรถศาสตร์ที่เครื่องจักรทำไม่ได้นั้น นักปรัชญาร่วมสมัยอย่าง ลูเซียโน ฟลอริดิ (Luciano Floridi) ก็เสนอไว้เช่นกันว่า มนุษย์เป็นเครื่องจักรที่คิดแบบอรรถศาสตร์ ซึ่งปัญญาประดิษฐ์ทำเช่นนี้ไม่ได้

เครื่องจักรอ่านหนังสือไม่ออก

อย่างที่พูดไว้ข้างต้นว่า ความเข้าใจแบบมนุษย์มีอะไรซับซ้อนและแตกต่างจากความคิดในแบบเครื่องจักร แล้วข่าวล่าสุดที่ว่า AI เอาชนะมนุษย์ในการอ่านจับใจความได้ หมายความว่า AI อ่านหนังสือได้แล้วรึยัง?

คำตอบคือยังอ่านไม่ได้ ตัวอย่างเรื่องห้องเรียนภาษาจีนเป็นตัวอย่างที่ชัดเจนว่า เครื่องจักรไม่ได้อ่านหนังสือแบบที่เราอ่าน เครื่องจักรอาศัยความสัมพันธ์ระหว่างสัญลักษณ์ในภาษา และทำนายความแม่นยำจากฐานข้อมูลที่มันมี ตัวอย่างว่ามันอ่านหนังสือไม่ออกเช่น เคยพิมพ์ชื่อคนหรือคำบางคำอย่าง จริยศาสตร์ ในโปรแกรมเวิร์ด แล้วมันขีดเส้นแดงฟ้องว่าพิมพ์ผิดกัน ทั้งที่เป็นคำที่มีความหมาย หรือแม้กระทั่งการเขียนโปรแกรมแบบ Neural Network ที่เป็นการทำงานแบบ machine learning ก็ยังคงเป็นการวิเคราะห์ความแม่นยำจากความน่าจะเป็นและความถี่ของความถูกต้องในการประมวลผล ซึ่งความถูกต้องนั้นก็ยังต้องอาศัยมนุษย์ตรวจสอบว่ามันประมวลผลได้แม่นยำหรือไม่ ตัวอย่างที่ใกล้ตัวก็คือ คีย์บอร์ดที่มีระบบ auto correct ที่ก่อนหน้านี้แก้คำผิดจนกลายเป็นอีกความหมาย แต่ทุกวันนี้ ค่อยๆ ทำนายคำศัพท์ได้ใกล้เคียงมากขึ้น

มีข่าวความผิดพลาดของ AI ที่แสดงให้เห็นว่า มันไม่ได้เข้าใจความหมายของสัญลักษณ์หรือสิ่งที่มันประมวลผล เช่น โปรแกรมระบุภาพของกูเกิลระบุภาพเต่ากลายเป็นภาพปืน การทำงานผิดพลาดนี้ไม่ใช่โปรแกรมทำงานผิดพลาด แต่เป็นการทดสอบการประมวลผลรูปภาพที่เรียกว่า adversarial image ซึ่งเป็นการสลับภาพในระดับพิกเซลที่สายตาของมนุษย์จะไม่เห็นความแตกต่าง หรือกรณีที่ AI ของกูเกิลเห็นภาพคนผิวสีเป็นกอริลลา แสดงให้เห็นว่า AI ทำงานโดยความเข้าใจแตกต่างจากเราโดยสิ้นเชิง

แต่ความก้าวหน้าในการอ่านจับใจความนี้ถือเป็นความก้าวหน้าของปัญญาประดิษฐ์ได้ นั่นก็คือ ต่อไปนี้มันจะตอบคำถามของเราได้แม่นยำขึ้น เพราะมันสามารถเชื่อมโยงหรือรู้จักถ้อยคำในภาษาตามโครงสร้างภาษาแบบที่เราใช้กันอยู่ ลองนึกภาพเวลาค้นกูเกิลหรือถาม siri แล้วมันแสดงคำตอบได้เหมือนกับถามใครสักคนหนึ่ง และในทางเดียวกัน การยอมรับว่าเครื่องจักรทำอะไรบางอย่างได้ดีกว่ามนุษย์ ก็ไม่ได้ทำให้เราสูญเสียความเป็นมนุษย์หรือด้อยกว่าเครื่องจักรแต่อย่างใด เพราะว่าเครื่องจักรที่ล้ำหน้ากว่ามนุษย์ ก็แค่ทำตามหน้าที่ของมัน และในเมื่อมันไม่ได้ ‘คิด’ แบบเดียวกับที่มนุษย์คิด ก็ไม่มีความจำเป็นอะไรที่จะต้องคาดการณ์ไปว่ามันจะทำอะไรเกินไปจากหน้าที่ของเครื่องจักรที่ออกแบบไว้

การทดสอบที่ AI เพิ่งทำคะแนนชนะมนุษย์ ก็เป็นเพียงการอ่านข้อมูลจากเว็บไซต์เพื่อไปตอบคำถาม ซึ่งมันยังห่างไกลจากการอ่านแล้วสรุปใจความสำคัญ หรือเล่าเรื่องย่อจากหนังสือทั้งเล่ม การที่มันจะทำแบบนั้นได้ ก็ต้องอาศัยการออกแบบระบบ machine learning เพื่อให้มันสรุปเรื่องย่อได้ ซึ่งก็จะเป็นคนละแบบกับการประมวลผลเพื่อตอบคำถาม

นั่นคือ อย่างน้อย ในอนาคตอันใกล้ AI ก็ยังไม่สามารถสรุปนิยายหรือตีความวิเคราะห์นิยายหรือหนังสือให้เราฟังได้

Tags: , , , , , , , , , , ,