บริษัท Foxconn ของไต้หวันประกาศเมื่อวันนี้ (10 มีนาคม) ว่าได้พัฒนาโมเดลภาษาขนาดใหญ่รุ่นแรก และวางแผนที่จะใช้เทคโนโลยีดังกล่าวเพื่อปรับปรุงการผลิตและการจัดการห่วงโซ่อุปทาน
โมเดลดังกล่าวซึ่งมีชื่อว่า "FoxBrain" ได้รับการฝึกโดยใช้ GPU H100 ของ Nvidia จำนวน 120 ตัว และทำเสร็จภายในเวลาประมาณสี่สัปดาห์ ตามที่ผู้ผลิตชิปตามสัญญาที่ใหญ่ที่สุดในโลก กล่าวอ้าง
Foxconn เปิดตัวโมเดลภาษาหลักรุ่นแรก ซึ่งใกล้เคียงกับมาตรฐานชั้นนำของโลก
บริษัทที่ประกอบ iPhone ให้กับ Apple และยังผลิตเซิร์ฟเวอร์ปัญญาประดิษฐ์ให้กับ Nvidia อีกด้วย กล่าวว่าโมเดลดังกล่าวใช้สถาปัตยกรรม Llama 3.1 ของ Meta
นี่เป็นโมเดลภาษาขนาดใหญ่รุ่นแรกของไต้หวันที่มีความสามารถในการอนุมาน ซึ่งได้รับการปรับให้เหมาะสมสำหรับรูปแบบภาษาจีนดั้งเดิมและภาษาไต้หวัน
Foxconn กล่าวว่าถึงแม้จะมีช่องว่างด้านประสิทธิภาพเพียงเล็กน้อยเมื่อเทียบกับโมเดลที่กลั่นกรองจากจีนของ DeepSeek แต่ประสิทธิภาพโดยรวมของ FoxBrain นั้นใกล้เคียงกับมาตรฐานชั้นนำของโลกมาก
FoxBrain ได้รับการออกแบบมาสำหรับการใช้งานภายในในตอนแรก โดยประกอบไปด้วยการวิเคราะห์ข้อมูล การสนับสนุนการตัดสินใจ การทำงานร่วมกันบนเอกสาร คณิตศาสตร์ การใช้เหตุผลและการแก้ปัญหา และการสร้างโค้ดโปรแกรม
Foxconn วางแผนที่จะทำงานร่วมกับพันธมิตรด้านเทคโนโลยีเพื่อขยายการใช้งานของโมเดล แบ่งปันข้อมูลโอเพนซอร์ส และใช้ประโยชน์จากปัญญาประดิษฐ์ในการผลิต การจัดการห่วงโซ่อุปทาน และการตัดสินใจอย่างชาญฉลาด
ตามรายงานของ Foxconn บริษัท Nvidia ให้การสนับสนุนผ่านซูเปอร์คอมพิวเตอร์ "Taipei-1" ที่ตั้งอยู่ในไต้หวัน และให้คำแนะนำทางเทคนิคในระหว่างการฝึกอบรมแบบจำลอง
ไทเป-1 ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ใหญ่ที่สุดในไต้หวัน เป็นของและดำเนินการโดย Nvidia ในเมืองเกาสง ซึ่งเป็นเมืองทางตอนใต้ของเกาะ
คาดว่า Foxconn จะประกาศรายละเอียดเพิ่มเติมเกี่ยวกับโมเดลดังกล่าวในงานประชุมนักพัฒนา GTC ของ Nvidia ในช่วงกลางเดือนมีนาคม
(ที่มา รอยเตอร์)
ที่มา: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm
การแสดงความคิดเห็น (0)