This is the Trace Id: 7cfaa6544d1109ff7842b32877f83893
Lompati ke konten utama
Azure

Apa Itu Model Bahasa Kecil (SLM)?

Pelajari cara menggunakan model bahasa kecil untuk berinovasi dengan lebih cepat dan efisien dengan AI. 

Gambaran umum model bahasa kecil (SLM)

Model bahasa kecil (SLM) adalah model komputasi yang dapat merespons dan menghasilkan bahasa alami. SLM dilatih untuk melakukan tugas tertentu menggunakan sumber daya yang lebih sedikit daripada model yang lebih besar.

Poin utama

  • Model bahasa kecil (SLM) merupakan subset model bahasa yang melakukan tugas tertentu dan menggunakan sumber daya yang lebih sedikit dari model yang lebih besar.
  • SLM dibuat dengan parameter yang lebih sedikit dan arsitektur neural yang lebih sederhana daripada model bahasa besar (LLM), sehingga mendukung pelatihan yang lebih cepat, mengurangi konsumsi energi, dan penyebaran pada perangkat yang memiliki sumber daya terbatas.
  • Potensi keterbatasan SLM mencakup kapasitas terbatas untuk bahasa kompleks dan penurunan akurasi dalam tugas kompleks.
  • Keuntungan menggunakan SLM mencakup biaya yang lebih rendah dan kinerja yang disempurnakan dalam aplikasi spesifik domain.

Bagaimana cara kerja SLM?

Model bahasa kecil (SLM) adalah model komputasi yang dapat merespons dan menghasilkan bahasa alami. SLM dirancang untuk melakukan beberapa tugas pemrosesan bahasa alami yang sama seperti model bahasa besar (LLM), rekannya yang lebih besar dan terkenal, tetapi dalam skala yang lebih kecil. Model bahasa kecil dibuat dengan parameter yang lebih sedikit dan arsitektur jaringan neural yang lebih sederhana, sehingga mereka dapat beroperasi dengan daya komputasi yang lebih sedikit sekaligus tetap menyediakan fungsionalitas yang berharga dalam penerapan spesifik.

Arsitektur dasar

Model bahasa kecil dibuat menggunakan versi sederhana jaringan neural buatan yang terdapat di LLM. Model bahasa pada dasarnya memiliki sekumpulan parameter—pengaturan yang dapat disesuaikan—yang digunakan untuk belajar dari data dan membuat prediksi. SLM berisi parameter yang jauh lebih sedikit dibandingkan LLM, sehingga lebih cepat dan efisien daripada model yang lebih besar. Jika LLM seperti GPT-4 dapat berisi lebih dari satu triliun parameter, SLM mungkin hanya berisi beberapa ratus juta. Arsitekturnya yang lebih kecil memungkinkan SLM melakukan tugas pemrosesan bahasa alami dalam aplikasi spesifik domain, seperti chatbot layanan pelanggan dan asisten virtual, menggunakan daya komputasi yang jauh lebih sedikit daripada LLM.

Komponen utama

Model bahasa mengurai teks menjadi penyematan kata—representasi numerik yang menangkap makna kata—yang diproses oleh transformator menggunakan encoder. Dekoder kemudian menghasilkan respons unik terhadap teks tersebut.

Proses pelatihan

Melatih model bahasa melibatkan pemaparan ke himpunan data besar yang disebut korpus teks. SLM dilatih menggunakan himpunan data yang lebih kecil dan lebih spesifik dibandingkan himpunan data yang digunakan oleh bahkan LLM yang relatif kecil. Dataset yang digunakan SLM untuk berlatih biasanya spesifik sesuai fungsinya. Setelah dilatih, model dapat disesuaikan untuk berbagai tugas spesifik melalui penyempurnaan.
MANFAAT

Keuntungan menggunakan model bahasa kecil

SLM menawarkan berbagai keunggulan dibandingkan LLM:

Persyaratan komputasi yang lebih rendah

Model bahasa kecil memerlukan daya komputasi yang lebih sedikit, sehingga ideal untuk lingkungan yang memiliki sumber daya terbatas. Oleh karena efisiensinya, model ini dapat digunakan pada perangkat yang lebih kecil.

Penurunan waktu pelatihan

Model kecil berlatih lebih cepat daripada model besar, sehingga dapat lebih cepat melakukan perulangan dan eksperimen. Waktu berlatih yang lebih singkat mempercepat proses pengembangan untuk memfasilitasi penyebaran dan pengujian aplikasi baru yang lebih cepat.

Penyebaran yang disederhanakan di perangkat edge

Ukurannya yang ringkas dan persyaratan sumber daya yang lebih rendah menjadikan SLM ideal untuk perangkat edge. SLM dapat berjalan secara efisien tanpa memerlukan konektivitas cloud yang konstan, sehingga meningkatkan kinerja dan keandalan dengan memproses data secara lokal.

Penurunan konsumsi energi

SLM menggunakan lebih sedikit energi. Hal ini menjadikannya lebih ramah lingkungan dan hemat biaya daripada LLM.

Akurasi yang ditingkatkan

Karena pelatihannya difokuskan pada tugas tertentu, SLM dapat memberikan respons dan informasi yang lebih akurat dalam area pelatihannya. Sifatnya yang spesifik memungkinkan penyempurnaan yang sering kali mengungguli model yang lebih besar dalam aplikasi spesifik domain.

Biaya lebih rendah

Penurunan persyaratan komputasi, waktu pelatihan, dan konsumsi energi SLM menghasilkan biaya keseluruhan yang lebih rendah. Keterjangkauan ini membuat SLM dapat diakses oleh berbagai orang dan organisasi yang lebih luas.

Tantangan dan batasan SLM

Model bahasa kecil dirancang agar efisien dan ringan. Desain ini dapat menyebabkan hambatan pada kemampuannya untuk memproses dan memahami bahasa yang kompleks, sehingga berpotensi mengurangi akurasi dan kinerjanya dalam menangani tugas yang rumit.

Berikut adalah beberapa tantangan umum terkait SLM:
Kapasitas terbatas untuk pemahaman bahasa kompleks:
Jika LLM menarik informasi dari pustaka yang lengkap dan menyeluruh, SLM menarik informasi dari sebagian kecil pustaka, atau bahkan mungkin beberapa buku yang sangat spesifik. Hal ini membatasi kinerja, fleksibilitas, dan kreativitas SLM dalam menyelesaikan tugas kompleks yang umumnya memanfaatkan parameter tambahan dan kekuatan LLM. SLM mungkin mengalami kesulitan untuk memahami nuansa, detail kecil kontekstual, dan hubungan rumit dalam bahasa, sehingga mengakibatkan kesalahpahaman atau penafsiran teks yang terlalu sederhana.
Potensi pengurangan akurasi dalam tugas kompleks:
Model bahasa kecil sering mengalami tantangan dalam mempertahankan akurasi ketika ditugaskan dengan skenario pemecahan masalah atau pengambilan keputusan yang kompleks. Daya pemrosesan terbatas dan himpunan data pelatihan yang lebih kecil dapat mengakibatkan penurunan presisi dan peningkatan tingkat kesalahan pada tugas yang melibatkan penalaran beragam, pola data rumit, atau tingkat abstraksi tinggi. Oleh karena itu, model ini mungkin bukan pilihan terbaik untuk aplikasi yang menuntut akurasi tinggi, seperti riset ilmiah atau diagnostik medis.
Performa terbatas:
Kinerja keseluruhan model bahasa kecil sering dibatasi oleh ukuran dan efisiensi komputasi. Meskipun bermanfaat untuk solusi yang cepat dan hemat biaya, mereka mungkin tidak memberikan kinerja yang kuat yang diperlukan untuk tugas yang menuntut.

Keterbatasan ini dan batasan lainnya menjadikan SLM kurang efektif dalam aplikasi yang memerlukan pembelajaran mendalam. Pengembang harus mempertimbangkan batasan SLM terhadap kebutuhan spesifiknya.

Tipe model bahasa kecil

SLM dapat dikategorikan ke dalam tiga tipe utama: versi model besar yang disederhanakan, model spesifik tugas, dan model ringan.

Versi model besar yang disederhanakan

Dalam pendekatan ini, model besar digunakan sebagai guru untuk melatih model yang lebih kecil sebagai siswa, yang belajar meniru perilaku model guru. Model siswa menyerap kebanyakan pengetahuan guru, tetapi memerlukan lebih sedikit parameter dan daya komputasi yang lebih sedikit. Penyederhanaan memungkinkan penyebaran model bahasa yang efisien di lingkungan yang memiliki sumber daya terbatas, sementara tetap mempertahankan tingkat kinerja yang tinggi. Salah satu SLM disederhanakan yang populer adalah DistilBERT, yang menawarkan kinerja yang sebanding dengan model yang lebih besar, BERT, tetapi dengan ukuran yang berkurang dan waktu inferensi yang lebih singkat.

Model spesifik tugas

Model spesifik tugas adalah model bahasa kecil yang disesuaikan untuk tugas atau domain tertentu. Berbeda dengan model serbaguna seperti ChatGPT, model ini disesuaikan agar unggul dalam penerapan tertentu, seperti analisis sentimen, terjemahan, atau jawaban atas pertanyaan. Dengan berfokus pada sekumpulan tugas yang sempit, model spesifik tugas terkadang dapat memperoleh akurasi dan efisiensi yang lebih tinggi daripada model yang lebih umum. Fungsi tersebut sangat berguna saat memerlukan performa tinggi untuk tugas tertentu, dan cakupan model dapat dibatasi untuk mengoptimalkan penggunaan sumber daya.

Model ringan

Model ringan dibuat dengan lebih sedikit parameter dan arsitektur yang dioptimalkan untuk meminimalkan tuntutan komputasi sekaligus tetap memberikan kinerja hebat. Model ini sering digunakan dalam aplikasi seluler, perangkat edge, atau skenario lain jika sumber daya komputasi terbatas.

Kasus penggunaan untuk SLM

Model bahasa kecil dioptimalkan untuk aplikasi tertentu, sehingga ideal untuk lingkungan dengan sumber daya terbatas atau kebutuhan spesifik. Beberapa kasus penggunaan kunci untuk SLM mencakup aplikasi pada perangkat, pemrosesan bahasa real time, dan pengaturan sumber daya rendah.

Aplikasi di perangkat

SLM sangat cocok untuk aplikasi di perangkat, yang memiliki keterbatasan sumber daya komputasi dan mengutamakan privasi. Dengan menjalankan secara langsung di perangkat seperti smartphone, tablet, dan speaker pintar, model ini dapat melakukan tugas seperti pengenalan suara, prediksi teks, dan terjemahan bahasa tanpa mengandalkan konektivitas internet konstan dan layanan komputasi cloud. Hal ini meningkatkan privasi pengguna dengan menjaga pemrosesan data tetap lokal dan meningkatkan kecepatan respons aplikasi. Contohnya meliputi input teks prediktif, asisten virtual, dan layanan terjemahan offline.

Pemrosesan bahasa real time

Dalam skenario yang mementingkan waktu respons cepat, model bahasa kecil memiliki kelebihan signifikan karena waktu responsnya yang cepat. Pemrosesan bahasa real time sangat penting dalam aplikasi seperti chatbot, otomatisasi layanan pelanggan, dan layanan transkripsi langsung. Model ini dapat menangani tugas bahasa dengan latensi minimal, sehingga memberikan umpan balik langsung dan interaksi lancar kepada pengguna.

Pengaturan sumber daya rendah

SLM sangat berguna khususnya dalam pengaturan sumber daya rendah yang memiliki keterbatasan daya komputasi dan bandwidth. Model dapat disebarkan pada perangkat keras yang terjangkau, sehingga dapat diakses oleh lebih banyak orang dan organisasi.

Tren dan kemajuan SLM yang muncul

Model bahasa kecil menunjukkan kemajuan signifikan dalam bidang pemrosesan bahasa alami dan pembelajaran mesin. Kemampuan model untuk memahami dan menghasilkan teks seperti manusia telah menciptakan kemungkinan baru untuk berbagai aplikasi, mulai dari layanan pelanggan hingga pembuatan konten. Seiring perkembangan model bahasa, SLM mungkin akan menjadi lebih canggih dan menawarkan lebih banyak kemampuan dengan efisiensi yang lebih besar. Berikut adalah beberapa tren dan kemajuan SLM yang muncul:
Kemajuan dalam efisiensi model dan teknik kompresi:
Penelitian yang sedang berlangsung diperkirakan akan menghasilkan model yang lebih efisien dengan teknik kompresi yang ditingkatkan. Kemajuan ini akan lebih meningkatkan kemampuan SLM, sehingga dapat menangani tugas yang lebih kompleks sekaligus mempertahankan ukurannya yang lebih kecil. Sebagai contoh, versi terbaru SLM Phi-3 kini memiliki kemampuan visi komputer.
Penerapan yang lebih luas seiring perkembangan komputasi edge:
Seiring meluasnya penggunaan komputasi edge, SLM akan dapat diterapkan dalam rentang bidang yang lebih luas, sehingga mengatasi beragam kebutuhan dan memperluas jangkauannya. Kemampuan untuk memproses data secara lokal di perangkat edge membuka kemungkinan baru untuk solusi AI real time yang sesuai dengan konteks.
Mengatasi batasan saat ini
Upaya untuk meningkatkan akurasi dan menangani ragam bahasa sedang berlangsung. Dengan mengatasi keterbatasan ini, peneliti bertujuan untuk meningkatkan kinerja SLM di berbagai bahasa dan konteks, sehingga menjadi lebih serbaguna dan cakap. 
Model hibrid dan pembelajaran gabungan:
Pembelajaran gabungan dan model hibrid membuka jalan untuk SLM yang lebih canggih dan serbaguna. Pembelajaran gabungan memungkinkan model dilatih di beberapa perangkat tanpa berbagi data sensitif, sehingga meningkatkan privasi dan keamanan. Model hibrid, yang menggabungkan kekuatan arsitektur yang berbeda, menawarkan peluang baru untuk mengoptimalkan kinerja dan efisiensi.

Tren ini menandai dampak yang semakin berkembang dari model bahasa kecil dalam membuat AI lebih mudah diakses, efektif, dan dapat disesuaikan dengan berbagai aplikasi. Seiring perkembangannya, SLM akan menjadi alat penting yang mendorong inovasi dalam AI di berbagai lingkungan dan industri. 
SUMBER DAYA  

Pelajari keterampilan baru dan jelajahi teknologi pengembang terbaru. 

Pengembang siswa

Mulai karier Anda di bidang teknologi

Dapatkan keterampilan untuk memulai karier Anda di teknologi dan memberikan dampak positif bagi dunia.
Sumber daya Azure

Jelajahi pusat sumber daya Azure

Jelajahi program pelatihan dan sertifikasi, T&J, acara, video, dan sumber daya Azure lainnya untuk pengembang.
Microsoft Learn

Hub pembelajaran Azure AI

Dapatkan keterampilan yang Anda perlukan untuk mempercepat implementasi AI dalam skala besar.

FAQ

  • SLM dirancang untuk tugas yang memerlukan lebih sedikit sumber daya komputasi. LLM menawarkan kemampuan yang lebih besar, tetapi memerlukan lebih banyak daya pemrosesan. SLM ideal untuk lingkungan komputasi edge dan sumber daya rendah, sedangkan LLM unggul dalam menangani tugas kompleks.

  • Model bahasa kecil ideal untuk tugas yang memerlukan efisiensi, seperti menjalankan aplikasi di lingkungan sumber daya rendah atau saat respons cepat sangat penting. Model ini juga berguna untuk tugas tertentu yang tidak memerlukan kemampuan ekstensif model bahasa besar.

  • Keuntungan menggunakan SLM dibandingkan LLM mencakup persyaratan komputasi yang lebih rendah, waktu respons yang lebih cepat, dan kesesuaian untuk penyebaran di perangkat edge. SLM lebih efisien dan hemat biaya untuk tugas yang tidak memerlukan kemampuan ekstensif yang dimiliki model bahasa besar. Hal ini menjadikannya ideal untuk aplikasi dan lingkungan real time dengan sumber daya terbatas.