Terobosan AI Otak Manusia: SpikingBrain 1.0 dari China Analisis Dokumen Kompleks Sekejap

SpikingBrain 1.0, model AI “mirip otak” dari China, mampu menganalisis dokumen super rumit dalam sekejap, hemat data & tenaga, berjalan di chip MetaX lokal. Foto: Stock
SpikingBrain 1.0, model AI “mirip otak” dari China, mampu menganalisis dokumen super rumit dalam sekejap, hemat data & tenaga, berjalan di chip MetaX lokal. Foto: Stock

SpikingBrain 1

China baru-baru ini memperkenalkan SpikingBrain 1.0, model bahasa besar (large language model, LLM) yang disebut “mirip otak manusia”. Dibangun oleh Institute of Automation, Chinese Academy of Sciences, riset ini menunjukkan bahwa AI dapat memproses teks / dokumen panjang secara efisien dengan penggunaan tenaga rendah.


Cara Kerja & Keunggulan

  • SpikingBrain memakai pendekatan spiking neurons, yaitu hanya mengaktifkan neuron-neuron yang benar-benar dibutuhkan, bukan seluruh jaringan seperti model Transformer tradisional. Cara ini efektif dalam menekan penggunaan daya dan mempercepat respons.

  • Model ini memerlukan data pelatihan jauh lebih sedikit, sekitar 2 persen dari data yang biasanya dibutuhkan model AI besar lain, untuk mencapai performa yang setara dalam tugas pemahaman dokumen panjang.

  • Di beberapa situasi, SpikingBrain mampu bekerja hingga 100× lebih cepat dalam pengolahan prompt teks panjang (contoh: dokumen sangat panjang) dibanding model AI konvensional.


Perangkat & Platform

  • Model ini berjalan sepenuhnya di chip domestik China, yaitu platform MetaX. Tidak bergantung pada GPU dari luar seperti Nvidia.

  • Ada dua versi model: satu dengan 7 miliar parameter (7B), dan satu lagi dengan 76 miliar parameter (76B). Keduanya mengalami pelatihan (pre-training) serta inferensi dengan ukuran konteks panjang.


Potensi Aplikasi & Manfaat

  • SpikingBrain terutama dirancang agar bisa menangani dokumen yang sangat panjang: hukum, medis, penelitian ilmiah, simulasi, dan bidang lain di mana teks atau data sangat kompleks dan panjang

  • Dengan konsumsi energi yang lebih rendah dan efisiensi memori yang meningkat dalam konteks inference dokumen panjang, model ini dianggap cocok untuk penggunaan skala besar di institusi yang memiliki sumber daya terbatas.

✍️ Ditulis oleh: Fadjri Adhi Putra & Fahmi Fahrulrozi
📌 Editor: Redaksi Tren Media

Ikuti Saluran Resmi Trenmedia di WhatsApp!
Dapatkan berita terkini, tren viral, serta tips inspiratif langsung dari redaksi.

📱 Saluran Trenmedia 🍳 Saluran Resep Masakan Viral

Klik dan bergabung sekarang – update terbaru langsung masuk ke WhatsApp kamu!

BERITATERKAIT

BERITATERBARU

INSTAGRAMFEED