| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
- Battery SOH
- 텐서플로우
- 배터리 AI
- AzureML
- 칼만필터
- 배터리 딥러닝
- 배터리 모델링
- 딥러닝 코드
- Battery modeling
- 리튬배터리
- 딥러닝
- bms
- Battery Deep Learning
- Battery Management System
- Incremental Capacity Analysis
- 코이딥
- 배터리 열화
- 머신러닝
- Machine Learning
- 코드로 이해하는 딥러닝
- state of health
- Azure
- Kalman filter
- eis
- 배터리 EIS
- Deep learning
- 머신러닝 코드
- tensorflow
- Battery AI
- 배터리 진단
- Today
- Total
목록분류 전체보기 (340)
Engineering insight
There Will Be a Scientific Theory of Deep Learning발송 시각 제목: 2026-04-29, 11:43, There Will Be a Scientific Theory of Deep Learning논문: arXiv:2604.21691v1 (2026-04-23)저자: Jamie Simon 외한 줄 핵심이 논문은 “딥러닝은 영원히 블랙박스일 것”이라는 체념 대신, 이미 여러 이론적·실증적 흐름이 서로 맞물리며 학습 과정의 물리학 같은 정량적 과학—저자들이 부르는 learning mechanics—로 수렴하고 있다고 주장하는 대형 관점 논문입니다."딥러닝은 아직 이론이 없는게 아니라, 물리학처럼 설명 가능한 학습 법칙이 이미 만들어지고 있다."약간...딥러닝계의 통일장 이론 ..
Visualization and quantification of lattice strain in battery cathode particles through electron backscatter diffraction imagingNature Communications (2026) · Weina Wang et al. · 원문: https://www.nature.com/articles/s41467-025-68166-6 이 논문은 layered oxide 양극 입자 내부에 숨어 있는 lattice strain의 공간 분포를 EBSD 기반 GROD(angle) 맵으로 대량 정량화해, 깊은 delithiation과 반복 cycling이 미세구조 손상을 어떻게 키우는지 직접 보여줍니다. 핵심 메시지는 충전 상태에서..
FlashMoE: Reducing SSD I/O Bottlenecks via ML-Based Cache Replacement for Mixture-of-Experts Inference on Edge DevicesarXiv:2601.17063v1 (2026) · Sangyeob Kim et al. · HTML: https://arxiv.org/html/2601.17063v1 FlashMoE: Reducing SSD I/O Bottlenecks via ML-Based Cache Replacement for Mixture-of-Experts Inference on Edge DevicesFlashMoE: Reducing SSD I/O Bottlenecks via ML-Based Cache Replacement ..
본 글은 절대적인 BenchMark나 Arena 비교가 아닌, 실제 사용환경에서의 개인적 경험에 근거한 글입니다.개인의 Task, LLM 활용목적에 따라 결과는 달라질 수 있으며, 참고용으로 재미로 봐주시면 좋습니다. 최근 몇달간 sLLM, Local LLM에 관심이 있어 DGX Spark, MAC studio, MAC Mini 이것저것 써보고 있습니다.OAuth로 클라우드 모델도 연결해보고, Local LLM도 해보며Ollama, LMStudio, vLLM을 모두 사용하고 맥에는 MLX용, gguf용 다써보고, Context길이도 이것저것 다해보며대부분의 가능한 변수에대해 다 직접 구동해보고 있습니다. DGX Spark 같은 고가의 장비에 70b이상의 Dense 모델들을 적용한 후기들은 유튜브나 글들..
FlashMoE: Fast Distributed MoE in a Single KernelNeurIPS 2025(표기: To appear) · Omotayo A. Yamenja, Divyansh Sharma, Ryan Prout, Yiran Chen · arXiv:2506.04667v3 · 링크: https://arxiv.org/abs/2506.04667v3 · 5줄 요약이 논문은 분산 Mixture-of-Experts(MoE) 추론의 핵심 병목이 expert 수학 자체보다 CPU 주도 실행 구조, 동기식 All-to-All, 잦은 커널 런치에 있다는 점을 겨냥합니다.핵심 아이디어는 gate→dispatch→expert FFN→combine→inter-GPU communication 전체를 하나의 pe..
