Intel เปิดตัวหน่วยเร่งการประมวลผลด้านปัญญาประดิษฐ์ ในงาน AI Summit 2019

ในงานประชุมและสัมมนาด้านปัญญาประดิษฐ์ อินเทลประกาศเปิดตัวผลิตภัณฑ์ที่ออกแบบมาเพื่อเร่งการประมวลผลระบบปัญญาประดิษฐ์โดยเฉพาะ พร้อมรองรับแนวโน้มที่ปรับการประมวลผลข้อมูลจากคลาวด์สู่การประมวลผลที่อุปกรณ์ปลายทาง (Edge Computing) เช่นยานยนต์ที่ขับเคลื่อนโดยอัตโนมัติ โดยอินเทลได้สาธิตการใช้งานหน่วยประมวลผล Intel Nervana Neural Network Processors (NNP) สำหรับการเทรนปัญญาประดิษฐ์ (NNP-T1000) และการประมวลผล (NNP-I1000) ด้วยการอนุมานจากชุดข้อมูลที่ปัญญาประดิษฐ์นั้นได้รับการเทรนมา ซึ่งเป็นวงจรรวมใช้งานเฉพาะทาง (Application-Specific Integrated Circuit: ASICs) ชุดแรก ๆ ที่อินเทลพัฒนาขึ้นเพื่อการเรียนรู้เชิงลึกที่มีความซับซ้อน ด้วยความสามารถด้านการปรับเปลี่ยนขนาดการใช้งานและประสิทธิภาพ เหมาะสำหรับลูกค้าผู้ให้บริการคลาวด์และดาต้าเซนเตอร์

นอกจากนี้ อินเทลยังเผยโฉมหน่วยประมวลผล Intel Movidius Myriad Vision Processing Unit (VPU) รุ่นใหม่สำหรับ Edge Media (เช่นป้ายโฆษณาดิจิทัลที่มีระบบประมวลผลภายในตัว) การประมวลผลภาพด้วยคอมพิวเตอร์ (Computer Vision) ตลอดจนแอพพลิเคชั่นที่ประมวลผลด้วยการอนุมาณ (inference application)

“เทคโนโลยีปัญญาประดิษฐ์ก้าวหน้ามาถึงจุดที่เปลี่ยนผ่านในเชิงความสามารถในการประมวลผลของฮาร์ดแวร์และหน่วยความจำ ฮาร์ดแวร์เฉพาะทางอย่าง Intel Nervana NNP และ Movidius Myriad VPUs นี้จำเป็นต่อการพัฒนาปัญญาประดิษฐ์ต่อไปในอนาคต การใช้ปัญญาประดิษฐ์เป็นพื้นฐานในระบบขั้นสูงนี้ช่วยให้เราข้ามผ่านจากการเปลี่ยนข้อมูลดิบเป็นข้อมูลสารสนเทศที่มีความหมาย ไปสู่การเปลี่ยนข้อมูลสารสนเทศที่มีความหมายเป็นองค์ความรู้” – นาวีน ราโอ รองประธานบริษัทและผู้จัดการทั่วไปกลุ่มผลิตภัณฑ์ปัญญาประดิษฐ์ของอินเทล กล่าว

Intel Nervana NNP-T สำหรับการเทรนนิ่งบนการ์ด Mezzanine โปรเซสเซอร์ Intel Nervana Neural Network เป็นวงจรรวมใช้งานเฉพาะทาง (Application-Specific Integrated Circuit: ASICs) ชุดแรก ๆ ที่อินเทลพัฒนาขึ้นเพื่อการเรียนรู้เชิงลึกที่มีความซับซ้อน ด้วยความสามารถด้านการปรับเปลี่ยนขนาดการใช้งานและประสิทธิภาพ เหมาะสำหรับลูกค้าผู้ให้บริการคลาวด์และดาต้าเซนเตอร์ อินเทลได้สาธิตการใช้งานระบบประมวลผล Intel® Nervana™ Neural Network Processors (NNP) ณ งาน AI Summit ในวันที่ 12 พฤศจิกายน 2562 ที่ ซานฟรานซิสโก (เครดิต: อินเทล คอร์ปอเรชั่น)

ผลิตภัณฑ์เหล่านี้ช่วยเสริมความแข็งแกร่งของอินเทลด้านโซลูชั่นส์ปัญญาประดิษฐ์ ที่คาดว่าจะสร้างรายได้มากกว่า 3.5 พันล้านดอลลาร์สหรัฐฯ ภายในปี 2562 นี้ โซลูชั่นส์ด้านปัญญาประดิษฐ์ของอินเทลซึ่งครบครันที่สุดทั้งทางกว้างและทางลึกในอุตสาหกรรมนี้ ช่วยให้ลูกค้าสามารถพัฒนาและนำโมเดลปัญญาประดิษฐ์ไปใช้งานในทุกระดับตั้งแต่คลาวด์ขนาดใหญ่ไปจนถึงอุปกรณ์ชายขอบขนาดจิ๋ว รวมไปถึงอุปกรณ์อื่นๆ

ขณะนี้ โปรเซสเซอร์ Intel Nervana NNPs รุ่นใหม่อยู่ระหว่างการผลิตและจัดส่งให้แก่ลูกค้า โดยโปรเซสเซอร์รุ่นนี้เป็นส่วนหนึ่งของการพัฒนาปัญญาประดิษฐ์ระดับระบบ ที่มาพร้อมซอฟต์แวร์ชนิดเต็มรูปแบบซึ่งพัฒนาขึ้นด้วยองค์ประกอบแบบเปิดและการบูรณาการกรอบการเรียนรู้เชิงลึกเพื่อการใช้งานสูงสุด

Intel Nervana NNP-T
Intel Nervana NNP-I

โปรเซสเซอร์ Intel Nervana NNP-T ตอบโจทย์ความสมดุลระหว่างการคำนวน การสื่อสาร และหน่วยความจำ จึงรองรับการขยายขนาดอย่างมีประสิทธิภาพในแง่พลังงาน จากคลัสเตอร์ขนาดเล็กไปเป็นซุปเปอร์คอมพิวเตอร์ขนาดใหญ่ ในแบบที่เกือบเป็นเส้นตรง โปรเซสเซอร์ Intel Nervana NNP-I ประหยัดทั้งพลังงานและงบประมาณ จึงเหมาะกับการใช้งานที่ต้องมีการอนุมานแบบหลายโหมดในสเกลใหญ่โดยใช้ปัจจัยที่ยืดหยุ่น ผลิตภัณฑ์ทั้งสองตัวนี้ได้รับการพัฒนาขึ้นเพื่อตอบสนองความต้องการประมวลผลด้านปัญญาประดิษฐ์เพื่อลูกค้าที่ใช้ปัญญาประดิษฐ์ชายขอบ อาทิ Baidu และ Facebook

ยิ่งไปกว่านั้น โปรเซสเซอร์ Intel Movidius VPU รุ่นใหม่ซึ่งมีกำหนดการวางจำหน่ายภายในครึ่งปีแรกของปี 2563 ยังรวมเอาความก้าวหน้าด้านการออกแบบที่มีเอกลักษณ์เฉพาะตัวและทรงพลัง เพื่อประสิทธิภาพการประมวลผลเชิงอนุมานที่สูงกว่าโปรเซสเซอร์รุ่นก่อนหน้าถึงกว่า 10 เท่า อีกทั้งยังประหยัดพลังงานสูงสุดถึง 6 เท่าเมื่อเปรียบเทียบกับโปรเซสเซอร์คู่แข่ง นอกจากนี้ อินเทลยังประกาศเปิดตัว Intel DevCloud ใหม่สำหรับ Edge ซึ่งเมื่อใช้งานร่วมกับชุดเครื่องมือ Intel Distribution of OpenVINO แล้ว สามารถจัดการกับหนึ่งในปัญหาสำคัญที่นักพัฒนากำลังเผชิญอยู่ คือช่วยให้สามารถทดลอง พัฒนาต้นแบบ และทดสอบโซลูชั่นปัญญาประดิษฐ์กับโปรเซสเซอร์ของอินเทลได้หลากหลายก่อนตัดสินใจซื้อฮาร์ดแวร์

ข้อมูล โมเดล และเทคนิคที่มีความซับซ้อนสูง จำเป็นต่อการพัฒนาหลักการให้เหตุผลและบริบทของการเรียนรู้เชิงลึก และนำมาซึ่งการออกแบบสถาปัตยกรรมให้ต่างออกไป เนื่องจากผู้ใช้ส่วนใหญ่มีการใช้งานปัญญาประดิษฐ์บางส่วนบนโปรเซสเซอร์ Intel Xeon Scalable อยู่แล้ว อินเทลจึงเดินหน้าปรับปรุงแพลตฟอร์มนี้ด้วยฟีเจอร์ต่าง ๆ อาทิ การปรับปรุง Intel Deep Learning Boost ด้วย Vector Neural Network Instruction (VNNI) ซึ่งช่วยยกระดับประสิทธิภาพการประมวลผลเชิงอนุมานด้วยระบบปัญญาประดิษฐ์ผ่านดาต้าเซ็นเตอร์และ Edge

ทั้งหมดนี้แม้จะยังเป็นรากฐานอันแข็งแกร่งของเทคโนโลยีปัญญาประดิษฐ์ไปอีกหลายปี แต่ความต้องการเทรนการเรียนรู้เชิงลึกของลูกค้าอินเทลนั้นคือเพิ่มประสิทธิภาพเป็นสองเท่าทุก ๆ สามเดือนครึ่ง ซึ่งทำได้ด้วยโซลูชั่นปัญญาประดิษฐ์ของอินเทลเท่านั้น ทั้งนี้ อินเทลพร้อมเติมเต็มภาพรวมของการคำนวณ หน่วยความจำ อุปกรณ์จัดเก็บข้อมูล การเชื่อมต่อระหว่างกัน ตลอดจนซอฟต์แวร์ เพื่อประสิทธิภาพและความสามารถทางโปรแกรมสูงสุดจนมั่นใจได้ว่าสามารถรองรับการเรียนรู้เชิงลึกผ่านอุปกรณ์หลายพันเครื่อง อันจะนำไปสู่การปฏิวัติองค์ความรู้นั่นเอง

ข้อมูลและภาพประกอบ intel.com

You may also like...