Model kecerdasan buatan (AI) terbaru bernama s1 yang dijelaskan dalam makalah penelitian pada 2 Februari telah menarik perhatian komunitas riset AI karena performanya yang efisien dengan biaya rendah.
Model ini mampu mencapai kinerja yang mendekati level tercanggih saat ini, tetapi dengan biaya operasional yang lebih rendah dan infrastruktur yang lebih sederhana.
Salah satu keunggulan s1 adalah kemampuannya meningkatkan performa model bahasa besar (LLM) selama proses inferensi. Ini dilakukan dengan memperpanjang waktu “berpikir” melalui intervensi sederhana, seperti mengganti tag akhir dengan perintah tambahan seperti “Tunggu.”
Model ini dilatih menggunakan dataset yang telah disaring, terdiri dari 1.000 contoh berkualitas tinggi dari Qwen2.5, yang dikembangkan oleh Alibaba Cloud. Untuk proses pelatihannya, s1 menggunakan 16 unit GPU Nvidia H100.
Menariknya, pelatihan model ini hanya memakan waktu 26 menit, dengan total biaya komputasi sekitar $6.
Efisiensi biaya dari model s1 memungkinkan eksperimen dilakukan lebih sering, bahkan bagi pihak dengan sumber daya terbatas.
Sementara perusahaan besar seperti OpenAI dan Anthropic mengandalkan infrastruktur yang luas, inovasi seperti s1 membuktikan bahwa kemajuan dalam AI tetap dapat dicapai meskipun dengan anggaran yang lebih terbatas.
Namun, peluncuran s1 juga memicu kekhawatiran tentang praktik “distealing”, yaitu penggunaan dataset yang telah disaring dan dibuat oleh sistem AI lain.
Isu ini memicu perdebatan di industri, dengan beberapa perusahaan seperti OpenAI menyuarakan kekhawatiran terkait aspek etika dan hukum dari praktik tersebut.