Hon Hai Research Institute Lancarkan LLM Bahasa Cina Tradisional dengan Keupayaan Penaakulan

d91acf1cd7d3bed2001cc7de2b4d2bfb 1 Hon Hai Research Institute Launches Traditional Chinese LLM With Reasoning Capabilities

(SeaPRwire) –   Versi pertama oleh Pusat Penyelidikan AI menunjukkan prestasi yang baik dalam matematik dan penaakulan

TAIPEI, 10 Mac 2025 — Hon Hai Research Institute hari ini mengumumkan pelancaran Model Bahasa Besar (LLM) Cina Tradisional yang pertama, menetapkan satu lagi pencapaian penting dalam pembangunan teknologi AI Taiwan dengan kaedah latihan model yang lebih cekap dan kos rendah yang diselesaikan dalam masa hanya empat minggu.

Institut itu, yang disokong oleh Hon Hai Technology Group (“Foxconn”) (TWSE:2317), pengeluar elektronik terbesar di dunia dan penyedia penyelesaian teknologi terkemuka, berkata LLM itu – yang dinamakan FoxBrain – akan menjadi sumber terbuka dan dikongsi secara terbuka pada masa hadapan. Ia pada asalnya direka untuk aplikasi yang digunakan dalam sistem dalaman Kumpulan, meliputi fungsi seperti analisis data, sokongan keputusan, kerjasama dokumen, matematik, penaakulan dan penyelesaian masalah, serta penjanaan kod.

FoxBrain bukan sahaja menunjukkan keupayaan pemahaman dan penaakulan yang berkuasa tetapi juga dioptimumkan untuk gaya bahasa pengguna Taiwan, menunjukkan prestasi cemerlang dalam ujian matematik dan penaakulan logik.

“Dalam beberapa bulan kebelakangan ini, pendalaman keupayaan penaakulan dan penggunaan GPU yang cekap secara beransur-ansur menjadi pembangunan arus perdana dalam bidang AI. Model FoxBrain kami menggunakan strategi latihan yang sangat cekap, memfokuskan pada pengoptimuman proses latihan dan bukannya mengumpul kuasa pengkomputeran secara membuta tuli,” kata Dr. Yung-Hui Li, Pengarah Pusat Penyelidikan Kecerdasan Buatan di Hon Hai Research Institute. “Melalui kaedah latihan yang direka dengan teliti dan pengoptimuman sumber, kami telah berjaya membina model AI tempatan dengan keupayaan penaakulan yang berkuasa.”

Proses latihan FoxBrain dikuasakan oleh 120 , diskalakan dengan rangkaian InfiniBand, dan selesai dalam masa kira-kira empat minggu. Berbanding dengan model inferens yang baru-baru ini dilancarkan di pasaran, kaedah latihan model yang lebih cekap dan kos rendah menetapkan satu kejayaan baharu untuk pembangunan teknologi AI Taiwan.

FoxBrain adalah berdasarkan seni bina Meta Llama 3.1 dengan 70B parameter. Dalam kebanyakan kategori di kalangan set data ujian TMMLU+, ia mengatasi Llama-3-Taiwan-70B dengan skala yang sama, terutamanya cemerlang dalam matematik dan penaakulan logik (Untuk penanda aras TMMLU+ FoxBrain, sila rujuk Rajah 1). Berikut ialah spesifikasi teknikal dan strategi latihan untuk FoxBrain:

  • Kaedah tambahan data yang mantap dan penilaian kualiti untuk 24 kategori topik melalui teknologi proprietari, menjana 98B token data pra-latihan berkualiti tinggi untuk Bahasa Cina Tradisional
  • Panjang tetingkap konteks: 128 K token
  • Menggunakan 120 NVIDIA H100 GPU untuk latihan, dengan jumlah kos pengkomputeran 2,688 hari GPU
  • Menggunakan seni bina latihan selari berbilang nod untuk memastikan prestasi dan kestabilan yang tinggi
  • Menggunakan teknik Adaptive Reasoning Reflection yang unik untuk melatih model dalam penaakulan autonomi
Fig. 1: TMMLU+ benchmark results of FoxBrain, Meta-Llama-3.1-70B and Taiwan-Llama-70B

Dalam keputusan ujian, FoxBrain menunjukkan peningkatan komprehensif dalam matematik berbanding model asas Meta Llama 3.1. Ia mencapai kemajuan yang ketara dalam ujian matematik berbanding Taiwan Llama, yang kini merupakan model besar Cina Tradisional yang terbaik, dan mengatasi model Meta semasa dalam kelas yang sama dalam keupayaan penaakulan matematik. Walaupun masih terdapat sedikit jurang dengan model penyulingan DeepSeek, prestasinya sudah sangat hampir dengan piawaian terkemuka dunia.

Pembangunan FoxBrain – daripada pengumpulan data, pembersihan dan tambahan, kepada Continual Pre-Training, Supervised Finetuning, RLAIF, dan Adaptive Reasoning Reflection – dicapai langkah demi langkah melalui penyelidikan bebas, yang akhirnya mencapai manfaat yang menghampiri model AI bertaraf dunia walaupun dengan sumber pengkomputeran yang terhad. Penyelidikan model bahasa besar ini menunjukkan bahawa bakat teknologi Taiwan boleh bersaing dengan rakan antarabangsa dalam bidang model AI.

Walaupun FoxBrain pada asalnya direka untuk aplikasi kumpulan dalaman, pada masa hadapan, Kumpulan akan terus bekerjasama dengan rakan teknologi untuk mengembangkan aplikasi FoxBrain, berkongsi maklumat sumber terbukanya, dan mempromosikan AI dalam pembuatan, pengurusan rantaian bekalan dan membuat keputusan pintar.

Semasa latihan model, NVIDIA menyediakan sokongan melalui Superkomputer Taipei-1 dan perundingan teknikal, membolehkan Hon Hai Research Institute berjaya menyelesaikan pra-latihan model dengan NVIDIA NeMo. FoxBrain juga akan menjadi enjin penting untuk memacu peningkatan tiga platform utama Foxconn: Pembuatan Pintar. EV Pintar. Bandar Pintar.

Keputusan FoxBrain dijadualkan untuk dikongsi buat kali pertama di persidangan utama semasa NVIDIA GTC 2025 Sesi Talk “” pada 20 Mac.

Mengenai Hon Hai Research Institute

Institut ini mempunyai lima pusat penyelidikan. Setiap pusat mempunyai purata 40 profesional R&D teknologi tinggi, yang kesemuanya memberi tumpuan kepada penyelidikan dan pembangunan teknologi baharu, pengukuhan teknologi dan saluran inovasi produk Foxconn, usaha untuk menyokong transformasi Kumpulan daripada “otot” kepada “otak”, dan peningkatan daya saing strategi “3+3” Foxconn.

Mengenai Foxconn .

Foto –

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.