
Mô hình có tên FoxBrain được đào tạo bằng 120 GPU H100 của Nvidia và hoàn thành trong khoảng bốn tuần. Công ty cho biết mô hình này dựa trên kiến trúc Llama 3.1 của Meta.
Đây là mô hình ngôn ngữ lớn đầu tiên của Đài Loan có khả năng suy luận được tối ưu hóa cho ngôn ngữ Trung Quốc truyền thống và Đài Loan.
Foxconn cho biết mặc dù có một khoảng cách nhỏ về hiệu suất so với mô hình DeepSeek của Trung Quốc, nhưng hiệu suất tổng thể của nó rất gần với các tiêu chuẩn của thế giới.
Với mục tiêu ban đầu được thiết kế cho các ứng dụng nội bộ, FoxBrain bao gồm phân tích dữ liệu, hỗ trợ quyết định, cộng tác tài liệu, toán học, lý luận và giải quyết vấn đề và tạo mã.
Foxconn cho biết họ có kế hoạch hợp tác với các đối tác công nghệ để mở rộng các ứng dụng của mô hình, chia sẻ thông tin nguồn mở và thúc đẩy AI trong sản xuất, quản lý chuỗi cung ứng và ra quyết định thông minh.
Nvidia đã hỗ trợ thông qua siêu máy tính “Taipei-1” có trụ sở tại Đài Loan và cung cấp tư vấn kỹ thuật trong quá trình đào tạo mô hình, Foxconn cho biết.
Taipei-1, siêu máy tính lớn nhất tại Đài Loan, thuộc sở hữu và được Nvidia vận hành tại Cao Hùng, một thành phố phía nam của hòn đảo.
Foxconn sẽ công bố thêm thông tin chi tiết về mô hình này trong hội nghị dành cho nhà phát triển GTC của Nvidia vào giữa tháng 3.
Hà Phương
Nguồn: Tạp chí ATTT