Nhận biết và giảm thiểu AI tạo thông tin sai (hallucination)
Hiểu 4 loại hallucination của AI, 3 nguyên nhân gốc rễ, và 3 kỹ thuật giảm thiểu — viết prompt cụ thể, điều chỉnh temperature, dùng ví dụ mẫu — để dùng AI mà ít bị thông tin sai.
Claude
GeminiPlaybook này dành cho ai?
Bạn đang dùng ChatGPT, Claude, hay Gemini để tra cứu thông tin, viết nội dung, hoặc hỗ trợ công việc. Phần lớn kết quả trông rất thuyết phục — câu cú mạch lạc, số liệu rõ ràng, giọng điệu tự tin. Nhưng thỉnh thoảng bạn phát hiện một con số sai, một sự kiện không có thật, hoặc một đoạn văn nghe hay nhưng hoàn toàn bịa. Bạn không chắc tại sao AI lại "bịa" như vậy, và quan trọng hơn, không biết cách nào để giảm thiểu chuyện này.
Playbook này giúp bạn hiểu rõ hiện tượng hallucination (AI tạo thông tin sai), phân biệt được các loại hallucination khác nhau, và áp dụng 3 kỹ thuật cụ thể để giảm thiểu chúng ngay trong cách bạn viết prompt hàng ngày.
Bạn sẽ đạt được gì?
- Nhận biết 4 loại hallucination và phát hiện từng loại khi đọc kết quả AI
- Hiểu 3 nguyên nhân khiến AI tạo thông tin sai — phần nào bạn kiểm soát được, phần nào không
- Viết prompt cụ thể hơn để AI ít phải đoán và ít đoán sai
- Điều chỉnh cài đặt temperature phù hợp với từng loại việc
- Dùng ví dụ mẫu (multi-shot prompting) để AI bám sát định dạng mong muốn
Bạn cần chuẩn bị gì?
- Tài khoản ChatGPT, Claude, hoặc Gemini (bản miễn phí đủ dùng)
- Không cần kiến thức kỹ thuật — playbook giải thích mọi thuật ngữ từ đầu
Bức tranh toàn cảnh
Hãy tưởng tượng AI như một người kể chuyện cực giỏi — luôn nói trôi chảy, tự tin, và thuyết phục. Nhưng người kể chuyện này không phân biệt được giữa "điều mình biết chắc" và "điều mình đoán". Khi không biết câu trả lời, thay vì nói "tôi không biết", AI sẽ tạo ra một câu trả lời nghe hợp lý — đôi khi đúng, đôi khi sai hoàn toàn.