Philipp Schmid baru saja membedah rahasia dapur di balik Manus (salah satu AI Agent tercanggih saat ini). Ternyata musuh terbesar developer Agent bukan model yang kurang pinter, tapi Context Rot (Konteks yang Membusuk).
Ini ringkasannya:
1. โ ๏ธ Problem Statement (Masalah)
๐ง Context Rot: Model AI seringkali mengalami degradasi performa drastis saat context window mulai penuh. Memaksa Agent mengingat semua hal (isi file, log error lama, percakapan basa-basi) malah bikin “polusi” yang mengaburkan logika reasoning model.
๐ Complexity Trap: Developer sering terjebak membuat struktur yang terlalu rumit (telalu banyak tool, prompt kepanjangan), yang justru bikin Agent jadi bingung dan sering halusinasi parameter.
2. ๐ ๏ธ Metodologi & Solusi (5 Prinsip Utama)
Berikut adalah 5 teknik Context Engineering untuk menjaga “kewarasan” Agent:
๐๏ธ Compaction > Summarization: Jangan merangkum (summarize) karena detail penting bisa hilang. Lakukan Compaction yang reversible. Contoh: Hapus kode 500 baris dari chat, ganti dengan “File saved to main.py”. Jika Agent butuh baca lagi, dia tinggal panggil tool read_file.
๐ฃ๏ธ Communicate, Don’t Share Memory: Prinsip GoLang: “Share memory by communicating.” Jangan kirim seluruh chat history utama ke sub-agent (Context Dump). Cukup kirim instruksi spesifik saja agar sub-agent fokus dan hemat biaya token.
๐งฐ Small Hierarchical Toolsets: Jangan kasih 100 tool ke LLM. Batasi maksimal ~20 tool inti yang atomik (seperti bash, write_file). Untuk logika kompleks, biarkan LLM menulis skrip dinamis daripada memilih dari ratusan menu tool statis.
๐ค Agent as a Tool: Berhenti menganggap Agent sebagai manusia. Anggap Sub-Agent sebagai Function Call. Input: Instruksi -> Proses: Loop Otonom -> Output: JSON Terstruktur. Hilangkan obrolan basa-basi antar robot untuk efisiensi.
๐ก๏ธ Operational Best Practices: Jangan gunakan RAG untuk mencari definisi tool (ini merusak KV Cache). Pasang batas ambang (Pre-Rot Threshold) misal di 128k token untuk memicu mekanisme bersih-bersih otomatis sebelum performa model turun.
3. ๐ Findings & Dampak
๐ Stability: Dengan menerapkan pemadatan konteks (compaction) dan isolasi memori, Agent bisa berjalan untuk tugas durasi panjang tanpa mengalami degradasi IQ atau lupa instruksi awal.
๐ฐ Cost Efficiency: Mengurangi “sampah” token yang tidak perlu (seperti history chat yang tidak relevan bagi sub-agent) secara drastis mengurangi tagihan API.
4. ๐ก Key Takeaways
๐ Simplify, Don’t Over-engineer: Tim Manus menulis ulang engine mereka 5 kali. Pelajaran terbesarnya? Hapus kompleksitas. Semakin pintar modelnya, semakin sedikit “scaffolding” (alat bantu) yang dibutuhkan. Get out of the model’s way.
๐ซ Don’t Train Yet: Jangan buang uang fine-tuning model sendiri dulu. Arsitektur berubah terlalu cepat; lebih baik optimalkan harness (sistem pembungkus) dan manajemen konteks-nya.
๐ Baca Panduan Lengkapnya:
https://www.philschmid.de/context-engineering-part-2
#ContextEngineering #AIAgents #LLM #HuggingFace #DevOps #SoftwareArchitecture #GenAI #TechTips #MachineLearning