기존에는 연산량이 많은 machine learning 응용을 고성능 server의 high-end GPU를 이용하여 실행하고 있으나, 최근 다양한 IoT/Mobile 장치가 확산되면서 on-device machine learning의 필요성이 대두되고 있다. 본 연구에서는 CPU/memory/power 등의 자원 제약을 가진 IoT/Mobile 장치에서 machine learning 응용을 실행하기 위해 Accuracy의 큰 저하없이 DNN의 연산량을 줄이는 가속 기법을 연구한다.
- DNN (Deep Neural Network) 가속 기법
- Channel/Block Pruning
- DNN Compiler
- Low-Precision (8/4/2/1 bits) Quantization
- Resource-constrained device를 위한 NAS( Neural Architecture Search)
- IoT 장치를 위한 Tiny Machine Learning Framework (TinyML)
- DNN Hardware Accelerator, Neural Processing Unit (NPU)
- Cloud/Edge의 Collaborative Inference를 위한 DNN 분할 기법
- Tensor Decomposition: Tucker, Tensor Train, Tensor Chain
- IoT/Mobile Platform
- ANT (AI-based Networked Things) Framework
- Android

- 관련 프로젝트
- “지능형 IoT 장치용 소프트웨어 프레임워크” (IITP, SW스타랩, 2017.4.~2024.12) – 관련 영상 1, 관련영상 2
- “OPEL(Open Platform Event Logger) 소프트웨어 플랫폼 개발” (연구재단, 글로벌프론티어사업, 2015. 9. 1 – 2018. 2. 28) – 관련 영상
- “라이프 컴패니온쉽 경험을 위한 지능형 ICT융합 연구” (Grand ICT연구센터, 2015. 9 ~ 2018. 12)
- “스마트 TV 2.0 소프트웨어 플랫폼” (지식경제부, 산업융합원천기술개발사업, 2011. 12. 1 – 2016. 8. 31)
- “Web 성능 가속을 위한 차세대 AP 구조 개발” (삼성전자 DMC연구소, 2015. 6.10~2016. 6.9)
- “모바일 운영체제 및 플랫폼 기술” (연구재단, SW기초원천기술개발사업, 2010. 7. 1 – 2015. 6. 30)
- “클라우드 플랫폼 핵심 SW 기술 연구” (삼성전자 소프트웨어 센터, 2012. 1. 1 – 2015. 7. 14)
- “Tizen Porting on Odroid-U3” (삼성전자 SWC, 2014.07.24~2014.12.23, 2015.03.02~2015.07.31)