top of page

工作環境

我們的實驗室位於一館六樓的1617,環境設備完善,共有六個座位和多部桌上型電腦。教授辦公室與實驗室是同一間,這使得我們能夠隨時向教授請教問題。我們每週一下午也會固定與教授討論當週進度。而我們的實驗室設有VPN,平時沒有要求必須前往實驗室,這給了我們在時間安排上的極大自由度。在程式撰寫方面,我們主要使用Python和PyTorch進行開發,由於深度學習的計算需求較高,實驗室配備了高性能的24G GPU,用於模型訓練和實驗。除此之外,我們還有一個Line群組,可以隨時發問或討論目前進度,以及老師可以隨時分派任務、回報進度,也可以用來遠距開會,方便大家在不同地點一同合作及交流。

工作詳述

  • 學習Python與深度學習

主要利用Python語言來進行資料處理以及建立深度學習所需要的模型。

  • 研究Pytorch 語法架構

我們使用pytorch搭建模型及訓練相關配置

  • 使用TSMixer/Transformer模型

在訓練模型上我們主要使用TSMixer與Transformer作為基底去修改其中架構,使模型訓練出的結果更加貼近心電圖真實樣貌

  • 預測心電圖走勢

我們的目標是簡化這一過程,僅使用5個電極即可獲得完整的12導聯心電圖。我們計畫通過AI預測來實現這一目標。我們使用I、II、aVF和V1導程來預測其餘的胸導程V2-V6。這樣的選擇捕捉了心臟的主要傳導方向,並且V1的形狀影響其他導程的預測。

實習期間完成之進度

112年7月~8月

  • 學習心電圖資料處理及python基本語法,完成實驗室6項基礎作業

  • 看完教授所要求的Deep Learning with Python 書籍

112年9月~11月

  • 研究機器學習領域

  • 修習研究所開設的機器學習(二)課程,了解機器學習基礎知識

  • 完成實作股價預測模型練習

112年12月~113 年1月

  • 心電圖資料處理

  • 搭建初始模型 (使用Transformer encoder + decoder) – 陳庭萱

  • 搭建初始模型 (使用Transformer encoder + masked 機制) – 曾韵容

  • 預測單一導程 (V2)

113年2月~ 3月

  • 更改資料處理方式,修正模型資料輸入

  • 調整模型架構 (使用TSMixer)

  • 預測整體導程 (V2, V3, V4, V5, V6)

  • 處理不正常的訓練資料

113年4月~ 5月

  • 論文撰寫,投遞國際研討會

  • 參與演討會

  • Transformer-encoder模型架構修改

(加入positional encoding 以及將embedding改用為CausalConv1d)

  • 模型輸出方法更改(以統計方法採用平均作為輸出)

工作當中扮演的角色

  • 陳庭萱:

1. TSMixer, Transformer (encoder + decoder)模型架構修改調整

2. 研討會口頭發表

  • 曾韵容:

1. Transformer encoder(+ masked 機制)模型架構修改調整

2. 論文撰寫

  • 數據處理、其他共用程式碼搭建、硬體問題皆以兩人合作方式產出

bottom of page