On-Device Machine Learning for Intelligent Embedded Systems

기존에는 연산량이 많은 machine learning 응용을 고성능 server의 high-end GPU를 이용하여 실행하고 있으나, 최근 다양한 IoT/Mobile 장치가 확산되면서 on-device machine learning의 필요성이 대두되고 있다. 본 연구에서는 CPU/memory/power 등의 자원 제약을 가진 IoT/Mobile 장치에서 machine learning 응용을 실행하기 위해 Accuracy의 큰 저하없이 DNN의 연산량을 줄이는 가속 기법을 연구한다.

  • DNN (Deep Neural Network) 가속 기법
    • Channel/Block Pruning
    • DNN Compiler
    • Low-Precision (8/4/2/1 bits) Quantization
    • Resource-constrained device를 위한 NAS( Neural Architecture Search)
    • IoT 장치를 위한 Tiny Machine Learning Framework (TinyML)
    • DNN Hardware Accelerator, Neural Processing Unit (NPU)
    • Cloud/Edge의 Collaborative Inference를 위한 DNN 분할 기법
    • Tensor Decomposition: Tucker, Tensor Train, Tensor Chain
  • IoT/Mobile Platform
    • ANT (AI-based Networked Things) Framework
    • Android
 
  • 관련 프로젝트
    • “지능형 IoT 장치용 소프트웨어 프레임워크” (IITP, SW스타랩, 2017.4.~2024.12) – 관련 영상 1, 관련영상 2
    • “OPEL(Open Platform Event Logger) 소프트웨어 플랫폼 개발” (연구재단, 글로벌프론티어사업, 2015. 9. 1 – 2018. 2. 28) – 관련 영상
    • “라이프 컴패니온쉽 경험을 위한 지능형 ICT융합 연구” (Grand ICT연구센터, 2015. 9 ~ 2018. 12)
    • “스마트 TV 2.0 소프트웨어 플랫폼” (지식경제부, 산업융합원천기술개발사업, 2011. 12. 1 – 2016. 8. 31)
    • “Web 성능 가속을 위한 차세대 AP 구조 개발” (삼성전자 DMC연구소, 2015. 6.10~2016. 6.9)
    • “모바일 운영체제 및 플랫폼 기술” (연구재단, SW기초원천기술개발사업, 2010. 7. 1 – 2015. 6. 30)
    • “클라우드 플랫폼 핵심 SW 기술 연구” (삼성전자 소프트웨어 센터, 2012. 1. 1 – 2015. 7. 14)
    • “Tizen Porting on Odroid-U3” (삼성전자 SWC, 2014.07.24~2014.12.23, 2015.03.02~2015.07.31)