Skip to main content

The Tech Behind LLMs

Do you often use AI but never really know what it does with your prompt? 🤔 Let’s dive a bit into the tech behind it — the Transformer inside LLMs (Large Language Models).

The video below breaks it down step by step, showing what’s really going on during an AI’s “thinking” process 🧠. This is the core engine behind tools like ChatGPT, Gemini, and other Generative AI.

But here’s the big question: do they actually think... or are they just predicting words? 🤖
Watch the video below to find out! 🎥

Ringkasan

Ilustrasi Cara Eksekusi Prompt oleh si-Transformer
  1. Potong dulu → “token”
    Kalimat yang sudah kita prompt dipecah jadi potongan kecil (token).
  2. Ubah token jadi angka → “embedding” (mempetakan makna)
    Setiap token dipetakan ke sebuah vektor (daftar angka). Kata yang mirip makna letaknya berdekatan di “ruang” berdimensi sangat tinggi. (Contoh: GPT-3 memakai 12.288 dimensi untuk embedding.)
  3. Attention = lampu sorot konteks
    Contohnya misal kata-kata “ngobrol” saling memberi informasi, “mole” di kalimat biologi ≠ “mole” di kimia/penyakit kulit, attention menyesuaikan makna sesuai tetangga katanya. Intinya: model menyorot bagian konteks yang relevan sebelum memperbarui makna kata itu.
  4. Feed-forward = cek cepat paralel
    Setelah disorot, tiap vektor melewati “pemeriksaan” paralel (multi-layer perceptron) untuk memperkaya detail. Lapisan attention dan feed-forward ditumpuk berkali-kali, di sinilah “deep” pada deep learning.
  5. Pilih kata berikutnya → softmax & “temperature”
    Di akhir, model menghasilkan distribusi peluang semua token kandidat. Softmax membuatnya jadi probabilitas, “temperature” bisa membuat keluaran lebih aman (dingin) atau kreatif (hangat).
  6. Skala itu kunci
    Model modern besar sekali: 175 miliar parameter (contoh GPT-3). Banyak parameter justru ada di blok-blok di antara attention. Kekuatan transformer datang dari paralelisme sehingga bisa dilatih pada GPU dalam skala super besar. Arsitektur ini lahir dari paper 2017 “Attention Is All You Need”.
Ilustrasi
  • Rapat Meja Bundar: setiap kata mengajukan pertanyaan (query) “siapa yang relevan buatku?” dan yang relevan mengangkat tangan (key) lalu berbagi isi (value). Hasilnya: makna kata makin spesifik sesuai konteks.
  • Kamus 3D Raksasa: kata = titik di ruang besar. “Ratu” dekat dengan “raja”, tapi bergeser arah “perempuan vs laki‑laki”. (Ilustrasi; kenyataan lebih kompleks.)
  • Termometer Kreativitas: temperature tinggi = ide unik; rendah = jawaban rapi/aman.
Kekuatan vs Keterbatasan

Kuat: ringkas teks, menjelaskan konsep, brainstorming ide, menulis draf, menerjemah ringan.
Terbatas: bisa sangat meyakinkan saat salah (halusinasi), bias dari data latih, tidak “mengerti” dunia seperti manusia, sensitif pada cara kita memberi instruksi (prompt).

Do & Don’t

Do

  • Tulis tujuan & peran dengan jelas (format, gaya, batasan).
  • Verifikasi angka/fakta penting sebelum dipakai.
  • Simpan jejak prompt & hasil penting.
  • Mulai dari use‑case kecil: ringkas email, outline presentasi, ide awal.

Don’t

  • Menempelkan data rahasia/sensitif.
  • Menganggap hasil AI selalu benar.
  • Bergantung total tanpa nalar & pengecekan.
Lesson learned

1) Jangan mendewakan - anggap AI sebagai “kalkulator bahasa”
AI pintar menyusun kata dan pola, bukan “mengerti” seperti manusia. Ia sangat meyakinkan saat salah. Tetap perlukan nalar & verifikasi manusia. (Video menunjukkan fokus ke mekanisme prediksi berikutnya bukan kebenaran faktual absolut)

2) Konteks itu raja
Hasil baik lahir dari konteks yang jelas: siapa peran AI, apa tujuan, batasan, dan format. Bahasa prompt yang jernih = perhatian (attention) tepat sasaran. (Selaras dengan konsep attention yang memilih info paling relevan.)

3) Skala besar ≠ selalu jawaban
Lebih besar sering lebih ampuh, tapi butuh biaya dan tidak menghapus bias. Gunakan AI dengan ukuran & cara yang proposional dengan tugas.

4) Praktik aman & sehat pakai AI (untuk pemula):

  • Jaga privasi: jangan tempel data rahasia.
  • Verifikasi: cek fakta penting untuk keputusan serius, wajib second opinion.
  • Jejak jelas: simpan catatan prompt & versi hasil.
  • Red-flag rutin: jika hasil terlalu mulus, cek ulang sumber & angka.

5) Cara mulai yang membumi:

  • Pakai AI untuk ringkas email/dokumen & bikin daftar ide.
  • Minta outline presentasi, lalu isi detailnya.
  • Minta contoh format template lalu sesuaikan.
  • Latihan cek-fakta: tanyakan sumber, bandingkan manual.
  • Buat daftar “boleh/tidak” pribadi (apa yang aman diproses AI).

Sikap ke depan:

  • Pro-human, pro-tool: gunakan AI untuk mempercepat draft awal, brainstorming, atau penjelasan konsep, finalisasi tetap di tangan kita.
  • Jika ingin memahami mendalam belajarlah sedikit demi sedikit: pahami istilah inti (token, embedding, attention, softmax). Cukup untuk naik kelas literasi AI.
  • Ikuti arsitektur, bukan hype: tahu bahwa lompatan besar AI modern datang dari transformer (2017) dan sifatnya yang paralel menolong untuk memilah mana klaim pemasaran, mana kemajuan arsitektural nyata.