在開始工作後,我時常會拿閒錢投資買賣股票。交易時習慣使用容易理解的技術指標,如趨勢線、斐波那契、均線、MACD 等,來分析市場並決定交易時機。然而,我發現這種基於規則的方法與下圍棋類似,都依賴記憶和規則組合來解析複雜局勢。既然人工智慧在圍棋領域已超越人類,我也應該將交易決策交給電腦,由它分析數據並給出訊號。
因此,我計劃在接下來的三十天,從金融市場基礎和機器學習原理開始,重點關注使用深度強化學習來開發自動化交易策略。同時,我也會加入使用 Transformer 模型進行價格預測,將其作為強化學習的特徵輸入,輔助機器在交易環境中學習和決策。
訓練完後發現有訓練成功但程式碼有問題,在save時竟然失敗: Traceback (most recent call last): File "E...
目前低層級代理已經訓練完了,但是高層級代理還在訓練當中,由於先前提到MacroHFT的程式碼可能存在一些問題,雖然目前路徑相關的問題應該都已經處理好了,不過還是...
創建幣安API KEY可以參考官方教學文件如何在幣安創建 API 金鑰? 今天high_level的訓練結果還是沒有出來,為了避免浪費時間,今天花了一些時間...
之後要寫一個完整的自動交易機器人,所以我這邊先把現貨交易需要用到的功能都預先寫好,這樣之後方便使用。開發過程中,有碰到一些小問題,特別是在掛單的最小交易數量、最...
接下來幾天我要開始使用FinRL的API來搭建一個簡單的加密貨幣的自動交易機器人;在重新審視FinRL時,我發現FinRL中其實範例多種多樣,其中竟然還有一個B...
使用 StockTradingEnvCashpenalty 在開始寫加密貨幣自動交易的機器人時,我在嘗試使用FinRL中不同的Env來訓練DRL模型;今天一開始...
昨天嘗試使用StockTradingEnvCashpenalty,雖然經過修改後可以正常使用,然而學習的效果卻很差,常常學到最後都是完全不動直接擺爛;嘗試很久無...
目前徹底卡關,怎麼訓練都訓練不起來,試了很多種其他的方法,我看別人的教學都訓練得起來,但我訓練的結果都是啥都不幹,目前找不出原因,吃吐的感覺。 目前的程式碼,還...
由於前幾天的失利,所以現在只能開始按部就班的自己寫Env以及自己Reward策略來引導RL學習,而不能只像之前一樣當黑箱用,這樣發生問題很難找出原因。 由於要做...
今天有了些進展,原來昨天訓練一直無法收斂,很可能是observation沒有做正規化,我忘記了把observation轉換成tensor後是直接作為PPO等RL...