Skip to main content

The Tech Behind LLMs

Sering pakai AI tapi belum pernah tau sebenarnya apa yang dia lakukan terhadap prompt kamu? mari kita bahas sedikit tentang teknologi di baliknya yaitu Transformer di dalam LLMs (Large Language Model). Video dibawah ini akan menjelaskan secara detail dan bertahap tentang apa yang terjadi pada proses "berfikir"nya AI pada LLMs, model yang sering kita kenal sebagai mesin utamanya dari ChatGPT, Gemini, Generative AI. Benarkah mereka berfikir? atau hanya menebak kata? Simak video dibawah ini.

Ringkasan

Cara Kerja Eksekusi Prompt Dalam 7 Langkah
  1. Potong dulu → “token”
    Kalimat yang sudah kita prompt dipecah jadi potongan kecil (token).
  2. Ubah token jadi angka → “embedding” (peta makna)
    Setiap token dipetakan ke sebuah vektor (daftar angka). Kata yang mirip makna letaknya berdekatan di “ruang” berdimensi sangat tinggi. (Contoh: GPT-3 memakai 12.288 dimensi untuk embedding.)
  3. Attention = lampu sorot konteks
    Kata-Misal kata-kata “ngobrol” saling memberi informasi:informasi, “mole” di kalimat biologi ≠ “mole” di kimia/penyakit kulit;kulit, attention menyesuaikan makna sesuai tetangga katanya. Intinya: model menyorot bagian konteks yang relevan sebelum memperbarui makna kata itu.
  4. Feed-forward = cek cepat paralel
    Setelah disorot, tiap vektor lewat “pemeriksaan” paralel (multi-layer perceptron) untuk memperkaya detail. Lapisan attention dan feed-forward ditumpuk berkali-kali—di sinilah “deep” pada deep learning.
  5. Pilih kata berikutnya → softmax & “temperature”
    Di akhir, model menghasilkan distribusi peluang semua token kandidat. Softmax membuatnya jadi probabilitas; “temperature” bisa membuat keluaran lebih aman (dingin) atau kreatif (hangat).
  6. Skala itu kunci
    Model modern besar sekali: 175 miliar parameter (contoh GPT-3). Banyak parameter justru ada di blok-blok di antara attention. Kekuatan transformer datang dari paralelisme sehingga bisa dilatih pada GPU dalam skala super besar. Arsitektur ini lahir dari paper 2017 “Attention Is All You Need”.
Ilustrasi
  • Rapat Meja Bundar: setiap kata mengajukan pertanyaan (query) “siapa yang relevan buatku?” dan yang relevan mengangkat tangan (key) lalu berbagi isi (value). Hasilnya: makna kata makin spesifik sesuai konteks.
  • Kamus 3D Raksasa: kata = titik di ruang besar. “Ratu” dekat dengan “raja”, tapi bergeser arah “perempuan vs laki‑laki”. (Ilustrasi; kenyataan lebih kompleks.)
  • Termometer Kreativitas: temperature tinggi = ide unik; rendah = jawaban rapi/aman.
Kekuatan vs Keterbatasan

Kuat: ringkas teks, menjelaskan konsep, brainstorming ide, menulis draf, menerjemah ringan.
Terbatas: bisa sangat meyakinkan saat salah (halusinasi), bias dari data latih, tidak “mengerti” dunia seperti manusia, sensitif pada cara kita memberi instruksi (prompt).

Do & Don’t

Do

  • Tulis tujuan & peran dengan jelas (format, gaya, batasan).
  • Verifikasi angka/fakta penting sebelum dipakai.
  • Simpan jejak prompt & hasil penting.
  • Mulai dari use‑case kecil: ringkas email, outline presentasi, ide awal.

Don’t

  • Menempelkan data rahasia/sensitif.
  • Menganggap hasil AI selalu benar.
  • Bergantung total tanpa nalar & pengecekan.
Lesson learned

1) Jangan mendewakan - anggap AI sebagai “kalkulator bahasa”
AI pintar menyusun kata dan pola, bukan “mengerti” seperti manusia. Ia sangat meyakinkan saat salah. Tetap perlukan nalar & verifikasi manusia. (Video menunjukkan fokus ke mekanisme prediksi berikutnya bukan kebenaran faktual absolut)

2) Konteks itu raja
Hasil baik lahir dari konteks yang jelas: siapa peran AI, apa tujuan, batasan, dan format. Bahasa prompt yang jernih = perhatian (attention) tepat sasaran. (Selaras dengan konsep attention yang memilih info paling relevan.)

3) Skala besar ≠ selalu jawaban
Lebih besar sering lebih ampuh, tapi butuh biaya dan tidak menghapus bias. Gunakan AI dengan ukuran & cara yang proposional dengan tugas.

4) Praktik aman & sehat pakai AI (untuk pemula):

  • Jaga privasi: jangan tempel data rahasia.
  • Verifikasi: cek fakta penting untuk keputusan serius, wajib second opinion.
  • Jejak jelas: simpan catatan prompt & versi hasil.
  • Red-flag rutin: jika hasil terlalu mulus, cek ulang sumber & angka.

5) Cara mulai yang membumi (7-hari tantangan mini):

  • Hari 1–2: pakai AI untuk ringkas email/dokumen & bikin daftar ide.
  • Hari 3–4: minta outline presentasi, lalu Anda isi detailnya.
  • Hari 5: minta contoh format (template) lalu sesuaikan.
  • Hari 6: latihan cek-fakta: tanyakan sumber, bandingkan manual.
  • Hari 7: buat daftar “boleh/tidak” pribadi (apa yang aman diproses AI).

Sikap ke depan:

  • Pro-human, pro-tool: gunakan AI untuk mempercepat draf awal, brainstorming, atau penjelasan konsep; finalisasi tetap di tangan Anda.
  • Belajar sedikit demi sedikit: pahami istilah inti (token, embedding, attention, softmax). 15 menit seminggu sudah cukup untuk naik kelas literasi AI.
  • Ikuti arsitektur, bukan hype: tahu bahwa lompatan besar AI modern datang dari transformer (2017) dan sifatnya yang paralel menolong untuk memilah mana klaim pemasaran, mana kemajuan arsitektural nyata.