본문 바로가기
Battery/Battery Paper review

[MDPI-2021] Attention-Based Long Short Term Memory Recurrent Neural Network for Capacity Degradation of Lithium-Ion Batteries

by 노마드공학자 2023. 3. 20.

논문 전문 : https://www.mdpi.com/2313-0105/7/4/66

[출처] Mamo, T.; Wang, F.-K. Attention-Based Long Short-Term Memory Recurrent Neural Network for Capacity Degradation of Lithium-Ion Batteries. Batteries 2021, 7, 66. https://doi.org/10.3390/batteries7040066

 

 

※ The picture and content of this article are from the original paper.


 

 

[논문 요약]
Attention-Based Long Short Term Memory Recurrent Neural Network for Capacity Degradation of Lithium-Ion Batteries

 

 

SOH를 추정하기 위한 딥러닝 논문으로 RNN이나 LSTM을 쓰는것은 아주 일반적입니다. 저는 최근 이에 반대하는 쪽 연구를 진행하고있는데, 어쨌든 아주 일반적인 연구방식입니다. 왜냐하면, 데이터만 있다면 시계열데이터이기 때문에 입력 출력데이터로 설정만해주면 논문 한편이 뚝딱 끝나기 때문입니다.

이전에 정리한 논문처럼 이 논문도 LSTM이후에 Attention으로 Feature Extracting을 진행하는 줄 알았는데, 이 논문을 정리하게 된 이유는 LSTM  모델을 분해해서 안에다가 Attention Mechanism을 넣어버렸기 때문입니다. (Input gate/forget gate/output gate의 LSTM 셀 내부를 분해해서 Attention을 적용)

 

Purpose

딥러닝으로 SOH를 추정하고자 하는 논문입니다.

LSTM을 사용하며, LSTM 셀을 분해해서 내부에 Attention을 추가하는 방식을 채택합니다. 

당연히 일반 LSTM대비 정확도는 높으나, Input Data가 너무 허접해서 아쉽습니다.

공공데이터를 쓰기에 셀 케미컬도 다르고 이런저런 조건들이 다 다르니, 이런 선택지밖에 쓰지못했다것은 마음으론 이해가 가나, 아쉬움은 어쩔 수 없습니다.

 

 

Contents

 

이 전 논문과 마찬가지로, 데이터는 OxFord나 NASA 의 공용데이터를 활용합니다

전압 패턴이나 온도별 전압거동 특성 분석 이런거는 직접실험하는게 가능하나, 사실 왠만한 규모의 대학교 랩실 수준에서는 직접 셀들을 열화시키고 수백사이클씩 관찰하고 하기가 쉽지않습니다.

따라서, 해당 논문도 학교에서 나온 관계로 공공데이터를 활용하고 딥러닝 모델을 적용하는 방식을 채택했는데, 사실 이렇게하면 논문 몇편 뚝딱써낼수있기에 저는 선호하는 방식은 아닙니다.

 

이렇기때문에, 이 논문은 Input Data로 오직 Cycle Number와 Temperature만 사용합니다.

이건 아주 큰 단점인데요, 여러 회사에서 각자 찍은, 각자가 만든 케미컬 셀에 대한 데이터를 학습시킬수밖에 없기에 Cycle Number/Temperature 밖에 선택할 수 없다는건 알겠지만 이정도 정성이 없는 논문을 쓰는데는 1주일이면 족할것 같다는 생각이 들었습니다.

 

LSTM+Attention은 하루면 코드짜고, 데이터는 인터넷에서 다 퍼다나르고, 나머지 4-5일 정도 논문 정리하면 충분하지 않나 생각됩니다.

다만, LSTM 결과물에 Attention을 추가한게 아니라, LSTM 셀 내부에 Attention을 추가했다는 것은 어느정도 코딩에 힘을 썼겠다 라는 생각은 듭니다.

 

Cycle수와 SOH는 너무 직접적인 관계가 있기에, 사실 이렇게 학습안하고 그냥 Multinomial equation으로 Fitting해도 정확도 1%내로 잘맞출수있습니다. 

Input Data가 너무 단조롭고, Output Data와 누가봐도 Correlation이 아주아주 높기에 이런 논문을 읽으면, 논문을 쓰는것 자체가 목적이였구나 하는 생각이 많이듭니다.

 

Results

LSTM 셀을 분해해서 각 gate에 Attention Mechanism을 적용한것은 꽤나 유의미한 논문.

하지만 그 외에는 아무 볼게 없는 논문

 

참조

[1] Mamo, T.; Wang, F.-K. Attention-Based Long Short-Term Memory Recurrent Neural Network for Capacity Degradation of Lithium-Ion Batteries. Batteries 2021, 7, 66. https://doi.org/10.3390/batteries7040066

댓글