DeepSeek V3.1 Dirilis: AI Lebih Pintar dengan Memori Super Panjang

Logo DeepSeek pada perangkat digital, menggambarkan ekosistem AI terbaru dari perusahaan tersebut. (Sumber: Communications Today)

Logo DeepSeek pada perangkat digital, menggambarkan ekosistem AI terbaru dari perusahaan tersebut

Buat kamu yang suka update soal AI, hati-hati bisa terbawa hype karena kabar terbaru dari DeepSeek—ini startup AI asal China—baru saja meluncurkan versi teranyar: DeepSeek V3.1. Kalau sebelumnya DeepSeek udah bikin geger dengan R1 yang murah tapi juara, maka V3.1 ini seakan melanjutkan gebrakan—tinggal menunggu angin pengaruhi Google dan OpenAI juga nih.

Apa Sih yang Beda dari V3.1?

DeepSeek cuma umumkan lewat grup kecil di WeChat—tanpa bikin riuh di media sosial—bahwa model V3.1 resmi dirilis. Tapi jangan salah, ini bukan update kecil. DeepSeek V3.1 punya kemampuan memori — atau “context window” — mencapai 128 ribu token, setara baca buku setebal 300–400 halaman dalam satu obrolan.

Model ini punya bayangan superhero di dunia AI. Dengan 685 miliar parameter, performanya mulai diadu sama model top lainnya seperti GPT-4.5 dan Claude versi terbaru.

Yang bikin menarik: model ini open-source, bisa diunduh dari Hugging Face. Ga perlu izin khusus. Langsung cus!.


Performanya Sekencang Apa?

Dari benchmark awal, DeepSeek V3.1 mampu menunjukkan kemampuan reasoning dan coding yang tajam. Nilai benchmark Aider mencetak skor 71,6%, sedikit lebih tinggi dari Claude Opus 4—padahal biaya operasionalnya jauh lebih rendah, “68 kali lebih murah”, kata salah seorang analis AI.

Yang bikin makin heboh: model ini punya arsitektur hybrid. Jadi, chat, reasoning, dan coding dipegang bersamaan tanpa salah satu ngeganggu yang lain. Talaah… keren.

Kemampuan teknis lainnya meliputi dukungan berbagai format tensor: dari BF16, FP32, bahkan FP8 eksperimental—ini penting buat developer supaya bisa optimasi sesuai hardware mereka.


Apa Kata Komunitas AI?

Pengguna subreddit r/LocalLLaMA langsung semangat:

“DeepSeek online model versi terbaru sudah V3.1, context window diperpanjang jadi 128k, boleh dites di situs dan aplikasi resmi. Jugaan, API-nya sama loh.

Tidak hanya itu, model ini sudah nongkrong di Hugging Face sebagai DeepSeek-V3.1-Base, yang siap diunduh dan dikembangkan lebih lanjut.


Latar Belakang Teknologi: Seberapa Canggih?

Sebagai penerus V3, yang merupakan model Mixture-of-Experts tak asing lagi (mengaktifkan sebagian parameter saja tiap token), V3.1 membawa peningkatan signifikan. V3 sendiri dilatih dengan hanya 2.788 juta jam GPU—itu murah banget dibanding model besar lain.

Hasil evaluation: V3 menyaingi model top seperti GPT-4o maupun Claude 3.5 sekaligus mengalahkan Qwen 2.5 dan LLaMA 3.1 yang sama-sama besar tapi closed-source.


Bendera Strategi Open-Source China

Menurut Tech in Asia dan Analytics India Mag, DeepSeek V3.1 lenyap di passing ke publik tanpa banyak cuitan—tetep open-source dan langusng melesat di Hugging Face.

Hal ini bikin banyak analis bilang: pendekatan terbuka seperti ini bisa bikin model berkembang lebih cepat karena “dikerjain bareng komunitas global.


Teknik dan Biaya Efisien: Menjawab Tantangan Dominasi Barat

Banyak yang bertanya kenapa model ini muncul dengan performa gahar tapi ongkosnya rendah—jawabannya ada di arsitektur dan desain hardware. DeepSeek V3 dilatih dengan hardware sekitar 2.048 GPU H800, pakai Multi-head Latent Attention (MLA), MoE, mixed-precision training, dan jaringan cluster yang dioptimalisasi. Semua itu bikin training dan inferensi lebih murah dan lancar.


Kolom Timing dan Konteks Pasar AI Global

Model ini dirilis beberapa minggu setelah OpenAI merilis GPT-5 dan Anthropic memperkenalkan Claude 4—artinya DeepSeek bergerak cermat sambil lawan arus dominasi Barat.

OpenAI sebelumnya sempat melayangkan kabar kekhawatiran soal DeepSeek—menyebut bahwa model R1 mereka “murah tapi mampu”, dan menjadi ancaman kompetitif serius. Bahkan pemerintah AS sampai menyoroti potensi risiko privasi dan keamanan.

Sebelumnya, peluncuran awal R1 juga bikin heboh Wall Street sampai investor banyak yang jual saham teknologi—Nvidia turun hingga 17% dan langsung hilang triliunan market cap.


Terlebih: Hambatan Hardware Cina Sendiri

Namun, DeepSeek ternyata sempat tertunda peluncuran model AI barunya karena masalah kompatibilitas pelat Huawei yang dipakai untuk training. Hal ini jadi lampu merah bahwa menyubsis AI di tengah kendala hardware domestik masih belum mudah.

📚 ️Baca Juga Seputar IT

Temukan berbagai artikel menarik dan inspiratif di halaman 👉 Kumpulan Artikel dan Berita IT Terpopuler 2026 . Dari berita terbaru, tips, hingga kisah menarik seputar dunia it — semua ada di sana!

✍️ Ditulis oleh: Fadjri Adhi Putra & Fahmi Fahrulrozi
📌 Editor: Redaksi Tren Media

Ikuti Saluran Resmi Trenmedia di WhatsApp!
Dapatkan berita terkini, tren viral, serta tips inspiratif langsung dari redaksi.

📱 Saluran Trenmedia 🍳 Saluran Resep Masakan Viral

Klik dan bergabung sekarang – update terbaru langsung masuk ke WhatsApp kamu!

BERITATERKAIT

BERITATERBARU

INSTAGRAMFEED