當今天我們開發中希望AI可以來進行除錯時,想在這邊分享幾個心得
今天我們在遇到任何bug或是log的時候,往往會遇到前後噴出大量的內容的狀況,請透過適當的grep將資料過濾完再交給ai,避免過度消耗token
>>
將輸出變成txt檔如果真的不曉得怎麼過濾資料,會建議將stdout的內容輸出到純文字,再交由ai來進行判讀跟推測
docker logs <container-name> >> output.txt
當今天你希望透過ai來讓他執行部分語法時,有些工具會提供一些cli互動的操作,但因為coding agent他們主要是透過觀察你的process是否執行結束才會開始擷取你的輸出,所以當有這種需要你按enter
或是按同意/不同意
等互動的command line工具時,要記得幫AI按這些按鈕,不然他們就會卡死在等你確認
在現在大部分的coding agent,都是以token來計費,而且因為要記得你之前的對話,所以每次的enter都會將你從一開始到當前的所有對話都送到llm裡面進行處理,所以就會導致一下子就用光額度
所以會建議在每次的互動中,一開始就先寫好你想要問的問題,然後直接提問,如果你覺得他的回應你不滿意,請捨棄原本的對話內容,重新請AI再產生一次,這樣就可以更有效的節省token用量