Dasar-dasar AI
Halusinasi
Sekarang setelah Anda memahami cara kerja model AI, mari kita bahas sesuatu yang sering menyesatkan developer baru: halusinasi.
Halusinasi adalah ketika model AI dengan percaya diri menghasilkan informasi yang tampak masuk akal, tetapi sebenarnya salah atau tidak ada.
Mengapa model berhalusinasi?
Ingat bagaimana kami mengatakan model AI memprediksi token berikutnya berdasarkan pola yang telah dipelajarinya? Inilah akar masalah halusinasi.
Bayangkan model ini seperti fitur pelengkapan otomatis teks yang sangat canggih. Jika Anda mengetik cukup banyak, model akan mencoba melengkapi teks tersebut dengan sesuatu yang “terdengar benar” berdasarkan pola yang telah dipelajarinya.
Saat model AI tidak mengetahui sesuatu, model tersebut tidak selalu mengatakan “Saya tidak tahu.” Sebaliknya, model mungkin:
- Menciptakan metode API yang terdengar masuk akal tetapi sebenarnya tidak ada
- Mencampuradukkan sintaks antar pustaka atau framework yang berbeda
- Membuat opsi konfigurasi yang tampak wajar tetapi sebenarnya tidak ada
Penyedia model AI mengambil banyak teks di internet (dan data proprietari lainnya) untuk melatih model mereka. Pola yang dipelajari model mencerminkan distribusi teks tersebut—termasuk kesalahan dan informasi yang sudah usang.
Halusinasi di alam bebas
Mari saya tunjukkan beberapa contoh nyata halusinasi yang ditemui pengembang.
Yang pertama adalah import yang tampak benar tetapi sebenarnya tidak ada dari sebuah paket:
// AI menyarankan:
import { debounce } from "react"
// Kenyataan: debounce tidak diekspor dari React!
// Anda perlu lodash atau menulis sendiri
Kedua, ini adalah metode pada kelas yang tampak meyakinkan, tetapi sebenarnya palsu:
# AI menyarankan:
df.remove_outliers(threshold)
# Kenyataan: pandas DataFrames tidak memiliki method ini
# Anda perlu mengimplementasikan penghapusan outlier sendiri
Terakhir, sebuah file konfigurasi yang hampir benar:
{
"type": "module",
"exports": {
"./index.js": {
"browser": true
}
}
}
Nilai "browser": true tidak valid di sini—AI mencampuradukkan field yang berbeda dari spesifikasi package.json.
Saat Anda makin sering bekerja dengan model AI, Anda akan belajar mengenali halusinasi. Pernyataan yang salah seharusnya menampilkan kesalahan—dan itu adalah sinyal untuk menyelidiki, bukan mengabaikan.
Batasan model lainnya
Model juga bisa dengan percaya diri menyarankan jawaban yang salah.
Anda mungkin menerima respons seperti “Anda benar sekali!” padahal kenyataannya, Anda tidak benar. Model cenderung setuju dengan Anda bahkan ketika Anda salah—ini disebut “sycophancy”.
Namun, bahkan dengan halusinasi dan keterbatasan, model AI tetap sangat berguna.
Kunci bekerja efektif dengan AI adalah mengembangkan pola pikir verifikasi. Setiap saran adalah titik awal, bukan jawaban final. Anda masih harus memahami kode yang dihasilkan, mengujinya, dan memvalidasinya.
Sepanjang kursus ini, kami akan menyarankan pendekatan yang dapat Anda gunakan untuk meningkatkan kualitas output dan mengurangi risiko halusinasi.
Anda telah menyelesaikan bab ini
Terus belajar