บทนำ

คุณเป็นแบบผมหรือเปล่าครับ ที่ทุกปีต้องไปแวะเดินงาน Commart หรือ Mobile Expo หลาย ๆ ครั้ง เพื่อเพิ่มความเสี่ยงในการตกเป็นเหยื่อให้กระเป๋าตังค์ต้องมลายหายไปเป็นชิ้น ๆ อยู่ตลอดเวลา และทุกครั้งที่มีคำว่า ‘ประสิทธิภาพ’ เพิ่มเข้ามาในโฆษณา CPU รุ่นใหม่ หรือการ์ดจอ (GPU) เรือธง ก็ต้องอดไม่ได้ในการตามล่าหารีวิวมาดู ทั้งประสบการณ์การใช้งานจริง Benchmark หรือนู่นนี่นั่นสารพัด ตบท้ายด้วยการติดตามกระแสวงการไอทีแล้วเฝ้าอัพเดทงานเปิดตัวเทคโนโลยีใหม่ ๆ อยู่เสมอ เช่นงานเปิดตัวของแอปเปิลหรือ Apple Event นั่นเอง ทั้งหมดทั้งมวลนี้มีสิ่งหนึ่งที่เป็นรากฐานเดียวกันอยู่ครับ คือการที่เทคโนโลยีใหม่จะต้องมีอะไรที่ดีกว่า เจ๋งกว่า หรือมีประสิทธิภาพมากกว่ามาประชันตลาดเพื่อแย่งลูกค้ากันให้ได้ หนึ่งในนั้นคือความสามารถในการประมวลผลหรือ Processing Power (จะเรียกว่าประสิทธิภาพของคอมพิวเตอร์ หรือ Computer Performance ก็ย่อมได้) ซึ่งเป็นพระเอกหลักของงานมาโดยตลอด

ผมขอยกตัวอย่างเช่น CPU หรือหน่วยประมวลผลกลาง ที่สิบกว่าปีก่อนความเร็ว Clock Rate เฉลี่ยยังอยู่แค่ระดับ 1 GHz หรือต่ำกว่านั้นในตลาดผู้บริโภค แต่ในปัจจุบันสมาร์ทโฟนทั่วไปสามารถทำความเร็วได้สูงถึง 2-3 GHz ในขณะที่ CPU คอมพิวเตอร์รุ่นเรือธงสามารถคว้าตำแหน่ง 4 GHz ไปได้แล้วแบบชิล ๆ เห็นได้ชัดเลยครับว่าเทคโนโลยีด้านนี้ไปเร็วจริง ๆ และดูเหมือนจะไม่หยุดเอาง่าย ๆ ซะด้วย

ในด้านประสบการณ์ส่วนตัวของผม แน่นอนแหละครับว่าเกี่ยวพันกับเรื่องพวกนี้โดยตรง ในฐานะคนทำงานในแวดวง Digital Media แถมยังดันทุรังไปทำงานในวงการภาพยนตร์และแอนิเมชั่นเสียอีก ซึ่งทั้งหมดนี้ต้องใช้คอมพิวเตอร์ที่มีประสิทธิภาพสูงพอ ในระดับท๊อปตลาดได้เลยก็ยิ่งดี (ถ้างบประมาณเป็นใจ) ดังนั้นทุก ๆ 3-5 ปี ชีวิตผมจึงต้องวนเวียนกลับมานั่งกรอกข้อมูลลง excel เพื่อเปรียบเทียบโมเดลและสเปคคอมพ์รุ่นต่าง ๆ ที่เล็งไว้ (CPU เป็นเป้าหมายอันดับหนึ่งแทบจะในทันที) ก่อนที่จะทำการลงทุนด้วยเงินเก็บที่มีอย่างระแวดระวัง ดูแล้วผมคงไม่มีทางหลุดวงลูปนี่ไปได้ง่าย ๆ แน่ ๆ และที่หลายคนพูดว่าคนวงการไอทีจะเจ็บทั้งตัวและหัวใจ (และกระเป๋าตังค์) บ่อย ๆ ผมจึงต้องขอเป็นอีกเสียงหนึ่งที่การันตีได้เลยว่าเรื่องนี้จริงแท้แน่นอน

คำถามคือจะเป็นไปได้มั้ย ที่ผมจะมีคอมพิวเตอร์แห่งอนาคตซักเครื่องมาใช้ หรือระบบอะไรก็ได้ที่ทำให้ประสิทธิภาพการประมวลผลเติบโตไปพร้อม ๆ กับความต้องการของอุตสาหกรรม อารมณ์ว่าซื้อคอมพ์ใหม่ที สิบปีเปลี่ยนยังไงยังงั้น หรือถ้าวันดีคืนดีอยากจะทำงานกิน Processing Power ชนิดที่ว่าคอมพ์เรือธงเครื่องเดียวก็เอาไม่อยู่ ผมควรจะใช้ Computer Farm หรือทุ่มงบไปกับ Super Computer แบบ NASA ถ้ามีตังค์ดีล่ะ – — สรุปง่าย ๆ เลยก็คือ Processing Power ที่มากที่ดีที่สุดจะจบลงระหว่างตัวเลือกไหนกันแน่

ทางออกของปัญหานี้จะเป็นอย่างไร วันนี้เราจะมาเจาะประเด็นกันครับ

 

Recap โลกคอมพิวเตอร์ (ฉบับเร่งรัด) กับ Processing Power

คอมพิวเตอร์เป็นเทคโนโลยีที่มีอัตราการพัฒนาก้าวกระโดดที่สุดชนิดหนึ่งในประวัติศาสตร์ของมนุษยชาติเลยก็ว่าได้ ผมจึงต้องขอเล่าประวัติศาสตร์ในวิวัฒนาการทั้งหมดนี้ให้คุณผู้อ่านฟังคร่าว ๆ กันก่อน

คอมพิวเตอร์แปลความหมายตรงตัวแบบโคตรไทยได้เลยว่า ‘คณิตกรณ์’ อันเป็นเครื่องจักรแบบสั่งการได้ที่ออกแบบมาเพื่อดำเนินการกับลำดับตัวดำเนินการทางตรรกศาสตร์หรือคณิตศาสตร์ ซึ่งก็ถูกต้องครับเพราะคอมพิวเตอร์ทำงานในระบบเลขฐานสองและดำเนินการด้วยตัวเลขกับการคำนวณจริง ๆ แต่ตราบใดที่คุณสามารถทำงานกับตัวเลขและใช้มันแก้ปัญหาได้แล้วล่ะก็ คุณจะทำอะไรก็ได้ชนิดที่ว่ามีพลังไม่จำกัดเลยด้วยซ้ำ

คอมพิวเตอร์ยุคแรก ๆ ถูกสร้างมาให้คิดเลขตรงตามชื่อจริง ๆ (จะเรียกว่าเครื่องคิดเลขไปเลยก็คงไม่ผิด) สามารถทำงานได้แค่การบวกลบคูณหารข้อมูลชุดเดียวหรือไม่กี่ชุดเท่านั้น เหมือนลูกคิดที่ฟิวเจอริสติกส์ขึ้นมาหน่อย ตัวอย่างของ ‘เครื่องกล’ ประเภทนี้คือเครื่องคำนวณของแบบเบจหรือคอมพิวเตอร์ทอมสัน ที่ทำงานได้ตามวัตถุประสงค์ที่ถูกสร้างมาเท่านั้น ไม่สามารถ ‘โปรแกรม’ ให้ทำงานได้ คอมพิวเตอร์ในยุคแรก ๆ จึงมีลักษณะแบบกึ่ง Steampunk หน่อย ๆ  แถมเต็มไปด้วยฟันเฟือง เกียร์ และชุดอุปกรณ์อย่างรอกหรือเชือกในบางกรณี ซึ่งจัดว่าเป็นการทำงานแบบ Analog เต็มร้อยเปอร์เซ็น

ข้ามเข้าสู่ยุค Early Digital ที่เรา (เริ่มจะ) คุ้นเคยกันที่บรรพบุรุษของคอมพิวเตอร์นาม ENIAC (Electronic Numerical Integrator and Computer) ซึ่งนับว่าเป็นคอมพิวเตอร์เครื่องแรกของโลกที่สามารถทำการโปรแกรมหรือแก้ระบบสั่งการได้เพื่อใช้ในการแก้ปัญหาทางคณิตศาสตร์ โดยเป้าหมายของมันคือการใช้คำนวณวิถีกระสุนสำหรับงานวิจัยของกองทัพบกสหรัฐ ณ เวลานั้น เอาเข้าจริงคอมพิวเตอร์ในสมัยแรกถ้าไม่ใช้งานทางวิทยาศาสตร์ ก็ต้องเป็นทางทหารนี่แหละครับ ENIAC จัดว่าเป็นตัวอย่างของคอมพิวเตอร์รุ่นที่หนึ่ง (1st Generation) ซึ่งมีจุดเด่นคือการใช้หลอดสุญญากาศและวงจรไฟฟ้าในการสร้างระบบควบคุมทางตรรกศาสตร์ – ปิดและเปิดแทนค่าศูนย์และหนึ่งตามระบบเลขฐานสองนั่นเอง คอมพิวเตอร์ในยุคนี้มีขนาดปกติที่ใหญ่เท่าห้อง แถมการใช้งานยังต้องมีทีมผู้เชี่ยวชาญนับสิบในการอ่านค่าที่ได้และตรวจสอบข้อมูลก่อนที่จะได้ผลลัพธ์จากการทำงานของคอมพิวเตอร์ออกมาจริง ๆ 

จึงไม่น่าแปลกใจเท่าไหร่ครับ ที่ในยุค Early Digital นี้ความสำคัญของการพัฒนาคอมพิวเตอร์เริ่มเป็นที่สนใจกันบ้างแล้ว (เพราะมันใช้งานได้จริง ๆ) เหมือนยุคเห่อเครื่องบินไม่กี่สิบปีก่อนหน้านั้น แต่ผู้คนส่วนใหญ่ยังมองไม่เห็นว่าคอมพิวเตอร์จะเปลี่ยนโลกของเราได้เหมือนปัจจุบัน การพัฒนาและวิจัยจึงยังคงมุ่งตอบโจทย์กลุ่มผู้ใช้พิเศษ ผู้เชี่ยวชาญ หรือนักวิจัยเท่านั้น รวมถึงการพยายามเพิ่ม Processing Power เป็นหลัก (ลืมเรื่อง UX/UI หรือการตอบโจทย์ผู้บริโภคธรรมดา ๆ ไปได้เลย) ใครที่เคยเล่นเกม Fallout ก็น่าจะจินตนาการออกแหละครับว่าคอมพิวเตอร์ที่แรงมาก ๆ แต่ไม่มี GUI จะมีสภาพแบบไหน – –ที่แน่ ๆ คือไม่เหลือความสวยงามอยู่เลย

ต่อกันที่ยุคของคอมพิวเตอร์รุ่นที่สอง (2nd Generation) ที่คอมพิวเตอร์ได้เปลี่ยนจากหลอดสุญญากาศมาใช้วงจรทรานซิสเตอร์ที่มีขนาดเล็กลง ปลอดภัยขึ้น และเสถียรกว่า รวมถึงเริ่มมีการใช้หน่วยความจำแบบแม่เหล็ก ส่งผลให้ดีไซน์ใหม่ของคอมพิวเตอร์ยุคนี้มีขนาดเล็กลง แต่พลังประมวลผลเพิ่มขึ้น บริษัทเทคโนโลยีชื่อดังอย่าง IBM จึงเริ่มทดสอบและสร้างโมเดลคอมพิวเตอร์สำหรับการใช้งานเชิงพาณิชย์ขึ้นมา เช่นรุ่น IBM 1401 หรือ IBM 1620 สำหรับใช้งานด้านการคำนวณทางวิทยาศาสตร์ อย่างไรก็ตามถึงแม้จะมีขนาดเล็กลงแล้ว แต่คอมพิวเตอร์ในยุคนี้ก็ยังมีขนาดประมาณตู้เย็น (เท่าตู้เซิร์ฟเวอร์หรือ โครง Super Computer ในปัจจุบัน) ไม่ก็ใหญ่พอที่จะกินพื้นที่โต๊ะทำงานได้แบบชิล ๆ

การเข้ามาของ IC (Integrated Circuit) หรือระบบวงจรรวมเป็นการพลิกโฉมวงการคอมพิวเตอร์อย่างแท้จริง เพราะ IC เพียงตัวเดียวสามารถทดแทนทรานซิสเตอร์ที่มีขนาดพอ ๆ กันได้เป็นร้อยหรือพันตัว ดังนั้นกระบวนการพัฒนาจึงเข้าสูตร ‘เล็กลงแต่เร็วขึ้น’ กันอีกครั้งครับ คอมพิวเตอร์ในยุคนี้เช่น HP 2100 มีขนาดเท่าเครื่องพิมพ์ดีดเท่านั้น (ซึ่งก็นับว่าดีกว่าตู้เย็นแหละครับ) แน่นอนว่าในตลาดยังแทบไม่มีหน้าจอหรือระบบสำหรับตอบสนองการใช้งานของผู้ใช้ทั่ว ๆ ไปให้เห็น แต่ความนิยมของคอมพิวเตอร์ในภาคธุรกิจกลับพุ่งสูงขึ้นมากเพราะความสามารถในการคำนวณและเก็บข้อมูลที่ดียิ่งขึ้น คอมพิวเตอร์เมนเฟรมและ Super Computer รุ่นแรก ๆ เริ่มโผล่ขึ้นมาให้เห็นในยุคนี้ด้วยเช่นกัน เราเรียกคอมพิวเตอร์ในกลุ่มนี้ว่าคอมพิวเตอร์รุ่นที่สาม (3rd Generation) นั่นเองครับ

ในที่สุดเราก็มาถึงยุคปัจจุบันที่คอมพิวเตอร์กลายเป็นเสาหลักล่าสุดในคอลเลคชั่นศิวิไลเซชั่นของมนุษยชาติไปเรียบร้อย (อย่างน้อยก็แบบกลาย ๆ) ด้วยการพัฒนาเทคโนโลยี Microprocessors (ที่เราเรียกกันติดปากว่าชิป) วงจร VLCI (Very Large Scale Integrated) และ Semiconductor Memory ที่มีขนาดเล็กลงมาก ๆ จนกระทั่งใช้โมเลกุลของธาตุในการควบคุมวงจรทางตรรกะศาสตร์ได้สำเร็จ ยุคนี้คือยุคทองของคอมพิวเตอร์ก็ว่าได้ครับ และคอมพิวเตอร์ในกลุ่มนี้ก็ได้ชื่ออย่างเป็นทางการว่าคอมพิวเตอร์รุ่นที่สี่ (4th Generation) ไปตามระเบียบ

ด้วยความที่ยุคนี้มีการเปลี่ยนแปลงของวงการเทคโนโลยีอย่างก้าวกระโดด เราจึงได้เห็นคอมพิวเตอร์ชื่อดังที่เปลี่ยนแปลงไปชนิดที่ว่าเหมือนหลุดออกมาจากคนละทศวรรษทั้ง ๆ ที่เวลาผ่านไปไม่กี่ปี ส่งผลให้มีการใช้ระบบแบ่งแยกคอมพิวเตอร์ด้วยรูปแบบการใช้งานหรือคุณลักษณะแทนการใช้ระบบยุคแบบเดิม ๆ ที่ในบางกรณีก็มีการจัดให้คอมพิวเตอร์รุ่นที่สี่หยุดอยู่ที่ปลายทศวรรษ 1990 และยึดเฉพาะคอมพิวเตอร์ที่ใช้ระบบ VLCI เป็นหลักเท่านั้น

การเข้ามาของอินเตอร์เน็ตเป็นการเปิดตัวยุค Digital อย่างเป็นทางการ ซึ่งผมพูดได้เต็มปากเลยว่าหลังปี ค.ศ. 2000 โลกของเราล้วนหมุนไปด้วยพลังของคอมพิวเตอร์กันแทบจะทุกจุดผ่านการเชื่อมต่อของโครงข่าย World Wide Web ซึ่งช่วยเร่งความเร็วในการเข้าสู่วงการคอมพิวเตอร์ของผู้คนทั่วไปได้อีก

การพัฒนาคอมพิวเตอร์ให้ตอบโจทย์ผู้บริโภคส่งผลให้เกิดกลุ่มประเภทคอมพิวเตอร์ PC (Personal Computer) สำหรับผู้บริโภค ที่ก็ฮิตติดลมแบบสุด ๆ แถมด้วยการเข้ามาในตลาดของ Microsoft และ Apple ที่ส่งผลให้การพัฒนาคอมพิวเตอร์เริ่มหลุดออกจากการใช้งานเชิงพาณิชย์มาเป็นการใช้งานทั่ว ๆ ไป เพื่อความบันเทิง หรือการทำงานเฉพาะทางได้ในที่สุด 

ในช่วงไม่กี่สิบปีที่ผ่านมาเราคงได้เห็นการเข้ามาของสมาร์ทโฟนกัน ซึ่งก็ไม่น่าแปลกใจครับที่เทคโนโลยีนี้ก็คือคอมพิวเตอร์ด้วย (จัดอยู่ในกลุ่ม Mobile Computer หรือ Micro Computer – หรือแล้วแต่จะเรียกกันเลยครับ) คอมพิวเตอร์มีอยู่แทบทุกที่ ทั้งในโทรทัศน์ กริ่งประตู ปลั๊กไฟ แก้วน้ำ รถยนต์, เครื่องบิน ฯลฯ – คอมพิวเตอร์ได้เข้ามาเป็นส่วนหนึ่งในชีวิตประจำวันของเราไปเรียบร้อยแล้ว และกำลังทวีความ ‘สำคัญ’ นั้นมากขึ้นอีกในไม่กี่ปีข้างหน้า จนถึงขั้นที่จะสามารถทดแทนอาชีพของมนุษย์อย่างพวกเราได้เลยด้วยซ้ำ โดยเฉพาะกับการพัฒนา AI และ Machine Learning…

ดูเหมือนว่าผมจะสาธยายมาเสียยาวยืดเลยใช่มั้ยครับ แต่ความจริงก็คือเราในฐานะมนุษย์ได้เปลี่ยนโลกทั้งใบไปด้วยเทคโนโลยีคอมพิวเตอร์ในเวลาไม่ถึง 100 ปี จนสิ่งที่ไม่ธรรมดานี้สามารถจับต้องได้โดยคนทั่วไป ไม่ว่าจะยากดีมีจนขนาดไหน ก็สามารถที่จะใช้ประโยชน์จากวัตถุที่เป็นผลมาจากความคิดของผู้คนนับล้านที่ช่วยกันสร้างไอเดียทั้งหลายเหล่านี้ให้กลายเป็นความจริงขึ้นมาได้ในที่สุด

ดังนั้นแล้ว ผมจึงสามารถตอบคำถามของตัวเองในตอนแรกจากประวัติศาสตร์คอมพิวเตอร์ได้ง่าย ๆ ด้วยการเลือกหาจากคอมพิวเตอร์รุ่นล่าสุดจากยุคปัจจุบันแน่ ๆ แต่ถ้าพลังประมวลผลที่ว่านั้นยังไม่พออีก ผมควรจะทำยังไงดีล่ะ

 

ความเร็วที่เพิ่มขึ้นและขนาดที่เล็กลง…จนถึงทางตัน

ความต้องการด้านพลังงานการประมวลผล (Processing Power) ของมนุษย์นั้นไม่มีขีดจำกัดครับ ในยุคแรกเริ่มเราอาจจะต้องการเพียงแค่คำตอบจากสมการตรีโกณมิติไม่กี่ตัว แต่ในปัจจุบันเราใช้คอมพิวเตอร์ทำทุกอย่างไปแล้วในชีวิตประจำวัน ส่วนในสายวิจัยและพัฒนา คอมพิวเตอร์ได้ถูกใช้งานอย่างเต็มพิกัดมากขึ้นกว่าในอดีตหลายล้านเท่า ในวงการวิศวกรรมต้องมีการออกแบบแบบจำลองอาคารหรือวัสดุ ที่ทำการทดสอบในรูปแบบ Simulation, วงการแพทย์ต้องเจาะโครงสร้างเซลล์และโมเลกุลผ่านการประมวลผลและสร้างชุดข้อมูล, ส่วนวงการบันเทิงก็ได้พัฒนาศาสตร์ด้าน CGI และ Computer Animation ที่มีความละเอียดสูงขึ้นเรื่อย ๆ จนแทบจะแยกไม่ออกจากโลกแห่งความเป็นจริงไปแล้ว

ทั้งหมดทั้งมวลนี้คือความต้องการอันมหาศาลของมนุษย์เราครับ ซึ่งการพัฒนาเทคโนโลยีในคอมพิวเตอร์แต่ละยุคที่ผ่านมาเราได้ทำการลดขนาดอุปกรร์หน่วยประมวลผลลงเรื่อย ๆ จากระดับเซนติเมตรสู่มิลลิเมตรจนถึงนาโนเมตรในชิปปัจจุบัน ซึ่งตามทฤษฎีแล้วขนาดที่เล็กลงส่งผลให้จุหน่วยประมวลผลย่อยได้มากขึ้น แถมการสื่อสารระหว่างระบบก็เร็วขึ้นอีกเพราะระยะทางที่สั้นลง แต่เรากำลังเข้าสู่ขีดจำกัดครับ ชิปรุ่นล่าสุดใช้ “อะตอม’ ในการทำหน้าที่แทนทรานซิสเตอร์สำหรับควบคุมกระแสไฟฟ้าหรืออิเลกตรอนไปแล้ว ขนาดที่เล็กจนถึงระดับประมาณ 10 – 14 นาโนเมตรนี้ยังคงยึดตามหลักฟิสิกส์อยู่ได้ แต่ถ้าเล็กลงไปกว่านี้ขีดจำกัดของขนาดและกฎทางควอนตัมฟิสิกส์จะส่งผลให้ทุกอย่างพังทลายลง ระบบทรานซิสเตอร์ที่ว่านี้จะไม่สามารถกันอิเลกตรอนได้อีกต่อไป (อิเล็กตรอนสามารถวาร์ปข้ามไปได้ด้วยกระบวนการ Quantum Tunneling) ส่งผลให้เกิด ‘ทางตัน’ ที่รอเราอยู่ในรูปแบบของขีดจำกัดทางธรรมชาติครับ

 

ว่าด้วย Supercomputer

สมมติว่าเรามองคอมพิวเตอร์เครื่องหนึ่งในอุดมคติ (ย้ำว่าเครื่องหนึ่งเท่านั้นนะ) การจะทำให้ Processing Power เพิ่มขึ้นก็คงต้องอัพเกรดให้ระบบมีประสิทธิภาพสูงขึ้น ซึ่งเทียบได้กับการ Scale up (Vertical-scaling) ซึ่งเป็นการทำให้ระบบหนึ่งเดียวมีความสามารถเพิ่มขึ้น

แน่นอนแหละครับว่า การอัพเกรดก็ต้องพัฒนาหน่วยประมวลผล ซึ่งก็จะเจอขีดจำกัดอย่างที่ผมได้กล่าวไว้แล้วในอนาคต Supercomputer จึงต้องใช้กรรมวิธีอื่นมาเสริมเพื่อให้สามารถทำงานได้เร็วขึ้นแบบสุด ๆ เช่นการออกแบบสถาปัตยกรรมและระบบภายในสำหรับการใช้งานหนักโดยเฉพาะ หรือชิปเกรดสูงที่มีคุณภาพดีมาก ๆ มาใช้สร้างหน่วยประมวลผล จากนั้นจึงต่อรวมเข้าด้วยกันเป็นระบบคอมพิวเตอร์ขนาดใหญ่ เราจึงไม่เห็นการนำ Supercomputer มาใช้งานทั่วไปอย่างการพิมพ์เอกสารหรือเล่นเกมแน่นอน

Supercomputer นั้นวัดสมรรถนะการทำงานกันด้วยหน่วย FLOPS (Floating Point Operations Per Second) โดยวัดจากความสามารถในการประมวลผลชุดคำสั่งเลขทศนิยมในหนึ่งวินาที ถ้าคอมพิวเตอร์ทั่วไปที่ใช้ CPU ระดับ High-end ที่เราคิดว่าเร็วสามารถคำนวณได้ถึงหลัก GigaFLOPS แล้วล่ะก็ Supercomputer ตัวท๊อปสามารถทำได้ถึง 415.5 petaFLOPS หรือเท่ากับ 415.5 x 1,000,000,000,000,000 ชุดคำสั่งต่อวินาที (เทียบกับ 1,000,000,000 ชุดคำสั่งของหน่วย GigaFLOPS) ห่างชั้นกันแบบไม่เห็นฝุ่นเลยครับ

ดังนั้นปัญหาของ Supercomputer จึงไม่เกี่ยวกับพลังการประมวลผลเสียทีเดียว เพราะถึงจะเข้าใกล้ขีดจำกัดเต็มทน แต่ก็ยังสามารถตอบโจทย์การทำงานได้อยู่ ปัญหาที่แท้จริงคือราคาที่แพงมาก ๆ หน่วยการผลิตที่มีน้อย และเทคโนโลยีที่เป็นความลับระดับสูงที่ไม่ใช่ว่าอยากจะหามาใช้ก็ใช้ได้เลย มีเพียงประเทศมหาอำนาจด้านคอมพิวเตอร์เช่นสหรัฐอเมริกา จีน และกลุ่มสหภาพยุโรปที่กุมองค์ความรู้และเป็นนำในวงการผ่านการพัฒนาและวิจัยอย่างแท้จริง

Supercomputer ถูกสร้างมาไม่ต่างจากคอมพิวเตอร์รุ่นแรก ตรงที่แต่ละรุ่นมักถูกสร้างมาแบบเฉพาะทางมาก ๆ (Custom-made) ไม่ใช่อุปกรณ์ประเภท OTS (Off-The-Shelf) ร่วมด้วยระบบปฏิบัติการณ์พิเศษอย่าง Linux แถมการดูแลรักษาและใช้งานก็ต้องอยู่ภายใต้การควบคุมของผู้เชี่ยวชาญอีกด้วย

Supercomputer ชื่อดังอย่าง Cray-1 (ค.ศ. 1970) ถูกใช้ประมวลผลข้อมูลเพื่อการพยากรณ์อากาศและการวิจัยด้านอากาศพลศาสตร์, CDC Cyber (ค.ศ. 1980) ถูกใช้คำนวณความน่าจะเป็นการคำนวณทางคณิตศาสตร์ และการออกแบบโมเดลสำหรับระบบป้องกันรังสี, EFF DES cracker (ค.ศ. 1990) ถูกใช้ในการเจาะรหัสและระบบความปลอดภัย, พอเข้าสู่ช่วงปี ค.ศ. 2000 Supercomputer เช่น ASCI Q  ได้ถูกนำมาทดสอบการระเบิดของหัวรบนิวเคลียร์ (ที่ทำจริงไม่ได้อีกต่อไป) Tianhe-1A (ค.ศ. 2010) ของประเทศจีนได้ถูกเปิดตัวและนำมาใช้งานด้านการจำลองแบบโมเลกุล ปิดท้ายด้วยปี ค.ศ. 2020 ที่ Supercomputer แทบทั้งโลกถูกดึงมาใช้ช่วยงานด้านการแพทย์ ไม่ว่าจะเป็นการวิเคราะห์ข้อมูลเพื่อสร้างวัคซีนหรือจำลองการแพร่ระบาดของโรค Covid-19 เพื่อเตรียมการป้องกันในระยะยาว

 

ว่าด้วย Computer Farm

ทางเลือกอีกทางหนึ่งคือการ Scale Out (Horizontal-scaling) ซึ่งตรงกันข้ามกับวิธีการของ Supercomputer พอสมควร ในกระบวนการนี้เราเลือกที่จำคอมพิวเตอร์ที่มีพลังประมวลผล และประสิทธิภาพสูง ๆ แต่หาได้ทั่วไปในตลาดมาหลาย ๆ หน่วยแล้วต่อร่วมกันเป็นระบบฟาร์ม ถ้าจะอธิบายอย่างตรงตัวก็คงจะเป็นการสู้ด้วยจำนวนมากกว่าการเพิ่มประสิทธิภาพนั่นเองครับ

ในส่วนของ Supercomputer ก็มีการสร้างฟาร์มขึ้นมาได้เช่นกัน แต่ก็จะถูกจำกัดด้วยปริมาณอยู่ดี ฟาร์มที่เราใช้งานกันในปัจจุบันส่วนใหญ่จะมุ่งเน้นไปที่การใช้อุปกรณ์ที่หาซื้อได้ในระดับผู้บริโภค แต่จะอยู่ในระดับไหนก็คงต้องขึ้นอยู่กับวัตถุประสงค์การใช้งานครับ ตัวอย่างเช่นบริษัทแอนิเมชั่นยักษ์ใหญ่อย่าง Disney ก็ลงทุนทำ Render Farm ของตัวเองขึ้นมา สเปคที่ใช้จึงต้องโหดมาก ๆ เพื่อรองรับการใช้งานที่หนักสุด ๆ ในการเรนเดอร์เฟรมแอนิเมชั่นแต่ละเฟรม ในกรณีของการโฮสเว็บ เก็บข้อมูล หรือการใช้งานที่ไม่หนักมาก เราอาจจะได้ผลลัพธ์ออกมาในรูปของ Server Farm หรือ Rack ตู้ที่มีชั้นสำหรับอุปกรณ์ประมวลผลเพื่อต่อร่วมกัน ซึ่ง Computer Farm รูปแบบนี้คงจะเป็นที่คุ้นชินมากกว่าสำหรับหลาย ๆ คน

Computer Farm ในระดับมือสมัครเล่นนี่ก็มีให้เห็นเหมือนกันครับ ต้นเหตุมาจาก Cryptocurrency อย่าง BitCoin นี่เอง ที่ส่งเสริมให้คนทั่วไปเริ่มประกอบฟาร์มเล็ก ๆ ของตัวเองมาใช้ขุด ผ่านทั้งอุปกรณ์อย่าง CPU ระดับบน ๆ ไปจนถึงการ์ดจอตัวท๊อป ๆ กระแสนี้อาจจะดูซาไปบ้างหลังจากที่มีนักลงทุนรายใหญ่พร้อมฟาร์มที่ประสิทธิภาพสูงกว่าเข้ามาแย่งตลาดไปในช่วงหลัง แต่หลายคนที่เข้าวงการนี้ไปแล้วก็ได้สร้างเครือข่ายขึ้นมาแลกเปลี่ยนองค์ความรู้และวิธีการกันอยู่เรื่อย ๆ จึงเป็นไปได้ที่เราจะเห็นฟาร์มเกิดใหม่เพิ่มขึ้นเป็นระยะ ๆ ครับ

อีกรูปแบบหนึ่งของ Computer Farm ที่จะพูดถึงไปไม่ได้เลยคือ Online Computer Farm ครับ ซึ่งเป็นโมเดลธุรกิจที่เริ่มบูมมากขึ้น เป้าหมายหลัก ๆ คือเปิดให้คนทั่วไปมาเช่าใช้บริการทรัพยากรในฟาร์มไปทำอะไรก็ได้ ไม่ว่าจะเป็นเรนเดอร์งานหรือคำนวณแบบจำลองซิมูเลชั่นทั้งหลาย เมื่อเสร็จสิ้นกระบวนการแล้วก็ทำการดาวน์โหลดไฟล์ผลลัพธ์กลับออกไป วิธีการนี้เพิ่มความสะดวกสบายได้มากขึ้น โดยแลกมากับข้อจำกัดเดียวคือความเร็วอินเตอร์เน็ตครับ ซึ่งคงจะเป็นคอขวดสำหรับใครหลาย ๆ คน อย่างไรก็ตามหากเราเทียบกันจริง ๆ แล้วล่ะก็เวลาที่ลดลงไปจากการใช้งาน Farm นี่ก็นับว่าคุ้มค่ามากแล้วล่ะครับ สำหรับใครที่รู้สึกว่าคุ้น ๆ กับหลักการนี้ ก็แน่นอนแหละครับว่าโมเดลนี้คือโมเดลแบบร้านเกมชัด ๆ เลย ซึ่งเริ่มจากการที่ผู้ใช้ไม่มีฮาร์ดแวร์ที่แรงพอ จึงต้องไปเช่าใช่ฮาร์ดแวร์ของร้านเกมที่มีประสิทธิภาพสูงกว่า สะดวกกว่า และที่สำคัญคือมีราคาถูกกว่าไปซื้อคอมพิวเตอร์แรง ๆ มาใช้อยู่แล้ว

 

Supercomputer ปะทะ Computer Farm อะไรคือคำตอบของอนาคต

ในที่สุดก็ถึงเวลาที่จะตอบคำถามของผมแล้วครับ ว่าระหว่าง Supercomputer และ Computer Farm อะไรจะตอบโจทย์ความต้องการ Processing Power ได้ดีกว่ากัน 

ในมุมมองของผม Computer Farm ชนะขาดลอย ในการตอบโจทย์ผู้บริโภคทั่วไปทั้งในด้านราคา ความสะดวกในการใช้งาน และความง่ายในการบริหารจัดการระบบ

Supercomputer อาจจะดูว้าวกว่าและเหมาะสมกับโครงการขนาดใหญ่ แต่ก็นั่นแหละครับ มันยังไม่เข้าถึงผู้บริโภคได้เร็ว ๆ นี้แน่นอน ด้วยหลักการพื้นฐานที่ Supercomputer ถูกสร้างมาเพื่อทำงานแบบเฉพาะด้านมากกว่าระบบ Farm ที่ใช้งานทั่วไปได้เต็มที่ (เพราะระบบรากฐานทั้งหมดก็คือคอมพิวเตอร์ High-end หลาย ๆ ตัวต่อกันอยู่ดี) สิ่งหนึ่งที่ผมอยากเห็นในอนาคตคือ Online Computer Farm ที่ใช้ Supercomputer เป็นองค์ประกอบหลัก เพื่อที่คนส่วนใหญ่จะได้สามารถใช้งานได้อย่างเต็มที่ ข้อกังวลที่อาจจะทำให้ Computer Farm รูปแบบนี้ไม่เวิร์คคงจะเป็นความเสี่ยงด้านความปลอดภัย (Super Computer ส่วนใหญ่เป็นระบบปิดที่ใช้งานกันภายในองค์กร) รวมถึงค่าใช้จ่ายที่ยังคงสูงมาก 

อีกไม่กี่ปีข้างหน้าเราอาจจะได้เห็นระบบ Supercomputer ที่เจาะตลาดผู้บริโภคในฐานะ Super High-end หรือเข้ามาอยู่ในองค์กรด้านการศึกษาและภาคธุรกิจมากยิ่งขึ้นก็ได้ และถ้าเป็นไปได้ การพัฒนามาตรฐานด้านอินเตอร์เน็ตขึ้นไปอีกจะช่วยสร้างโครงข่ายในลักษณะ Cloud ที่ทำงานได้แบบสมบูรณ์แบบ ส่งผลให้เราใช้แค่อุปกรณ์ขนาดเล็กที่ไม่เปลืองทรัพยากร แล้วโยนงานประมวลผลให้เป็นหน้าที่ของ Computer Farm ไป คอนเซปต์นี้อาจจะดูเว่อร์วังไป แต่บริษัทอย่าง Amazon ก็ได้ให้บริการ AWS (Amazon Web Service) ซึ่งเป็นระบบ On-demand cloud computing platforms ในขณะที่ Google เองก็เริ่มแหย่มือเข้ามาทดลองแนวความคิดนี้ในอีกรูปแบบด้วยโครงการ Google Stadia ที่เป็นระบบ Cloud Gaming Service ซึ่งผลลัพธ์ที่ได้อาจจะยังไม่ชัดเจนเท่าไหร่ แต่สิ่งหนึ่งที่ชัดเจนคือเรากำลังก้าวเข้าสู่ยุคของ Computer Farm กันอย่างแท้จริง

นั่นหมายความว่าคุณเองก็สามารถเข้าถึง ‘Processing Power’ ที่ว่านั่นได้เหมือนกันนะ!

 

บทส่งท้าย

มาจนถึงจุดนี้ หลาย ๆ คนที่เคยเรียนวิชาเศรษฐศาสตร์มาน่าจะคุ้นชินกับกราฟ Demand – Supply กันเป็นอย่างดี ยิ่ง Demand หรือความต้องการเพิ่ม Supply ก็ต้องไล่กวดให้ทันเป็นเงาตามตัว (ในที่นี้คือ Processing Power นั่นเอง) เห็นได้ชัดจากประวัติศาสตร์ทั้งหมดที่ผมได้เล่ามา

ความต้องการที่ว่านี้ไม่มีจุดจบ แต่ถ้าวันหนึ่งเรามาถึงขีดจำกัดด้านเทคโนโลยีกันจริง ๆ เราจะไปต่อได้อีกหรือไม่ เราจะยังเหลือความหวังในระยะร้อยปีหรือพันปีข้างหน้าหรือเปล่า

นักวิทยาศาสตร์และวิศวกรระดับแนวหน้าพยายามที่จะตอบคำถามนี้มาโดยตลอด และคำตอบที่ใกล้เคียงความเป็นจริงที่สุดคือการพัฒนา Quantum computer ให้สำเร็จ เพราะหากสามารถนำมาใช้งานได้แล้วล่ะก็ Quantum Computer สามารถประมวลผลได้เร็วและดีกว่าคอมพิวเตอร์ ‘ปกติ’ ที่เราใช้กันอยู่ชนิดที่ห่างชั้นกว่า Supercomputer vs PC เลยล่ะครับ (Quantum Computer เป็นหัวข้อที่จำเป็นต้องเจาะลึกต่อโอกาสหน้าครับ)

ความต้องการด้านพลังงานเป็นอีกปัจจัยสำคัญที่ผมไม่ได้กล่าวถึงในบทความนี้ แต่คุณผู้อ่านคงจะพอจินตนาการคอมพ์ร้อน ๆ พร้อมทอดไข่ดาว เวลากดเรนเดอร์งานได้ใช่มั้ยครับ พลังงานความร้อนที่ว่านั้นสูญเสียไปแบบเปล่า ๆ จากพลังงานไฟฟ้าที่เราใส่เข้าไปในระบบ ดังนั้นถ้าเราไม่ออกแบบคอมพิวเตอร์รุ่นใหม่ให้ใช้งานพลังงานได้ดีขึ้นแล้วล่ะก็ แนวคิดที่บ้าระห่ำสุด ๆ (แต่ก็เป็นไปได้นะ) เช่น ‘คอมพิวเตอร์ดวงดาว’ ที่ใช้ดาวฤกษ์เป็นแหล่งพลังงานก็ดูจะเป็นอะไรที่เหมาะสมในระยะพันหรือหมื่นปีข้างหน้านี้เหมือนกัน

ท้ายที่สุดแล้วมนุษยชาติคงจะหาทางให้ได้ซักทางหนึ่งในการเพิ่ม ‘Processing Power’ และคอมพิวเตอร์รุ่นที่ 5 (5th Generation) อาจจะเป็นภาพฝันที่ปลายขอบฟ้าแล้วก็ได้ครับ

 

อ้างอิง

https://en.wikipedia.org/wiki/Computer_performance

https://en.wikipedia.org/wiki/Comparison_of_Intel_processors

https://stadia.google.com/

https://aws.amazon.com/what-is-aws/?nc1=f_cc

https://en.wikipedia.org/wiki/Scalability

https://www.britannica.com/technology/supercomputer

https://www.smithsonianmag.com/history/the-brief-history-of-the-eniac-computer-3889120/

https://en.wikipedia.org/wiki/Server_farm#:~:text=A%20server%20farm%20or%20server,run%20and%20to%20keep%20cool.

https://www.computerhistory.org/revolution/supercomputers/10/7

https://www.technologist.eu/the-end-of-moores-law-reign/

https://www.google.com/search?q=quantum+computer&rlz=1C1CHBF_enTH915TH915&oq=quantum+computer&aqs=chrome.0.69i59j69i61l2.2683j0j9&sourceid=chrome&ie=UTF-8

https://research.google/teams/applied-science/quantum/

https://en.wikipedia.org/wiki/Computer_performance

https://www.nas.nasa.gov/hecc/resources/pleiades.html

Tags: , ,