AI Agent 的定義與運作機制
核心定義
人類不提供明確的步驟指示,僅給予 目標 (Goal),由 AI 自己想辦法達成。AI 必須具備在複雜、不可預測的環境中靈活調整計畫的能力。

運作流程 (循環機制)
- 目標 (Goal):由人類給定的輸入。
- 觀察 (Observation):AI 觀察並分析目前的狀況。
- 行動 (Action):AI 採取行動影響環境,進而產生新的觀察,循環直到達成目標。

技術演進
- 過去 (RL 打造):透過強化學習 (Reinforcement Learning) 訓練模型以最大化獎勵 (Reward),但侷限在特定任務且不同任務無法通用。
- 現在 (LLM 驅動):直接將大型語言模型 (LLM) 當作 Agent,利用其文字接龍的能力處理目標與環境敘述。

文字接龍的應用延伸
從 LLM 角度看,Agent 並非新技術,而是依靠模型現有的通用能力進行「文字接龍」,將環境觀察轉為文字輸入,並將文字輸出轉譯為可執行動作。

LLM Agent 的優勢
- 無限的行動可能:輸出不再侷限於預設的選擇題,具備近乎無窮的行動方式。
- 豐富的回饋資訊:不需要「通靈」設定數值獎勵,可直接讀取如編譯錯誤 (Compile log) 等文字訊息來修正行為。

關鍵能力:根據經驗調整行為 (記憶模組)
AI Agent 需具備不更新參數也能根據回饋改變行為的能力,主要是透過對長期記憶的管理:
超憶症 (Hyperthymesia) 的風險
若將所有經歷一股腦丟給模型,會因記憶過長、瑣碎資訊太多而耗盡算力或無法進行抽象思考。
