ตลอดเวลาที่ผ่านมา ประเด็นของปัญญาประดิษฐ์นั้นเป็นที่ถกเถียงกันอย่างกว้างขวางทั้งในแวดวงนักวิทยาศาสตร์ นักวิชาการ นวัตกร และคนทั่วไป ซึ่งส่วนใหญ่มักกังวลว่า ความก้าวหน้าของปัญญาประดิษฐ์อาจนำไปสู่จุดจบของเผ่าพันธุ์มนุษย์

สำนักข่าวซีเอ็นเอ็นรายงานว่า สตีเฟน ฮอว์กิง ศาสตราจารย์มหาวิทยาลัยเคมบริดจ์ นักฟิสิกส์ทฤษฎี และนักจักรวาลวิทยาชื่อดัง ได้ย้ำเตือนถึงภัยคุกคามจากปัญญาประดิษฐ์อีกครั้ง ขณะที่กล่าวสุนทรพจน์บนเวที Oxford Union มหาวิทยาลัยออกซ์ฟอร์ด เมื่อวันที่ 14 พฤศจิกายนที่ผ่านมา

เป็นไปได้ว่าการพัฒนารุดหน้าของปัญญาประดิษฐ์ทำให้ฮอว์กิงตัดสินใจพูดถึงเรื่องนี้อีกครั้ง และเช่นเดียวกับเมื่อ 2 ปีก่อน เขายังมองว่าสิ่งที่เป็นภัยต่อมนุษยชาติไม่ได้มีเพียงปัญญาประดิษฐ์เท่านั้น หากยังรวมถึงภาวะโลกร้อน และสงครามนิวเคลียร์ ซึ่งคราวนี้เขาได้กำหนดเส้นตายให้โลกอีกด้วย นั่นคือ มนุษย์เหลือเวลาอีกแค่ 1,000 ปีเท่านั้น สำหรับการแสวงหาและสร้างอาณานิคมบนดาวดวงอื่น ก่อนที่เผ่าพันธุ์มนุษย์จะถึงคราวอวสาน

“โอกาสที่โลกจะพบจุดจบนั้นจะเพิ่มมากขึ้นเรื่อยๆ จนแทบจะเกิดขึ้นอย่างแน่นอนในอีก 1,000 ปี หรือ 10,000 ปีข้างหน้า

“ก่อนเวลานั้นจะมาถึง เราควรแยกย้ายกันออกไปสำรวจดวงดาวอื่นๆ เพื่อที่ว่าเมื่อโลกถึงคราวอวสาน ก็จะยังไม่ใช่จุดจบของเผ่าพันธุ์มนุษย์”

นอกจาก สตีเฟน ฮอว์กิง แล้ว ยังมีนักธุรกิจและนักวิชาการชื่อดังอีกหลายคนที่เห็นด้วยกับทฤษฎีที่ว่าปัญญาประดิษฐ์จะเป็นภัยคุกคามและจุดจบของมวลมนุษย์ อาทิ อีลอน มักส์ เจ้าของบริษัทเทสลา บิล เกตส์ เจ้าพ่อไมโครซอฟต์ และนิค บอสตรอม ผู้เขียนหนังสือ Superintelligence: Paths, Dangers, Strategies

หวังว่าเมื่อเวลานั้นมาถึง เราจะหาทางรับมือหรือค้นพบโลกใบใหม่เรียบร้อยแล้ว

 

อ้างอิง:
     – http://edition.cnn.com/2016/11/17/health/hawking-humanity-trnd
– http://www.csmonitor.com/Science/2016/1117/Stephen-Hawking-says-humans-have-1-000-years-to-find-a-new-planet