HWP문서[ETRI 보도자료] ETRI, 노코드 MLOps 개발도구 공개한다_231027_F.hwp

닫기

Embargo

-

배포일자 : 2023.10.30.(월)

배포번호 : 2023-60호

인공지능컴퓨팅연구소

초성능컴퓨팅연구본부장

김강호(042-860-6226)

E-mail : khk@etri.re.kr

초성능컴퓨팅연구본부

AI컴퓨팅시스템SW연구실장

조창식(042-860-5942)

E-mail : cscho@etri.re.kr

대외협력부

홍보실장

정길호(042-860-0670)

E-mail : khchong@etri.re.kr

홍보실

행정원

이서진(042-860-0635)

E-mail : seojin@etri.re.kr

매수 : 보도자료 2매(참고자료 6매, 사진자료 5매)

배포처 : ETRI 홍보실

ETRI, 노코드 기계학습 개발도구(MLOps) 공개한다

- HW 인지형 노코드 신경망 자동생성 프레임워크 깃허브 공개

- 1일 과총서 개방형 R&D 생태계 조성위한 공개 컨퍼런스 개최

한국전자통신연구원(이하 ETRI)은 과학기술정보통신부(이하 과기정통부)와 정보통신기획평가원(이하 IITP)의 지원을 받아 개발한 노코드 기계학습 개발도구(MLOps)의 핵심기술을 오픈소스로 공개하고, 깃허브 커뮤니티 확산을 위한 공개 세미나를 1일 과학기술회관에서 개최한다고 밝혔다.

ETRI 연구진은 2021년부터 공장, 의료 등 산업 분야에서 인공지능 전문지식이 부족한 사용자들도 노코드 기반으로 신경망을 자동생성하고 배포 과정까지 자동화하는 탱고(TANGO) 프레임워크를 개발하고 있으며, 작년부터 핵심기술을 오픈소스로 공개하고 있다.

탱고 프레임워크란 인공지능이 적용된 응용SW를 자동으로 개발하고, 클라우드, 쿠버네티스 엣지 환경, 온디바이스 등 다양한 디바이스 HW 환경에 맞게 최적화하여 배포해주는 기술이다.

기존의 인공지능 응용SW 개발방식은 데이터 라벨링은 도메인 전문가가 담당하고, 인공지능 모델 개발·학습 및 응용SW의 설치·실행은 SW개발자가 직접 하는 구조였다.

인공지능 기술의 확산과 함께 전 산업에서 소프트웨어에 대한 수요가 높아지고 있지만, 이러한 수요를 충족시킬 인공지능·소프트웨어 전문가는 부족한 상황이다. 최근 이러한 문제를 개선하고자 인공지능 응용SW 개발·배포를 자동화하기 위한 연구가 아마존, 구글, 마이크로소프트 등 글로벌 업체를 중심으로 시작되었으나, 자사의 서비스 환경만을 위한 개발환경을 제공하여 국내 산업 현장의 다양한 HW를 지원하기는 어려운 점이 있었다.

ETRI는 이와 같은 국내 산업 현장의 수요를 반영, 객체 인식에 최적화된 신경망 자동화 개발 알고리즘을 개발하고 있다. 특히 의료·스마트 공장 등 산업 현장에서 실제 활용할 수 있도록 데이터 라벨링, 인공지능 모델 생성, 인공지능 학습 및 응용SW 배포 전 과정에 대한 최적화, 자동화도 지원한다.

ETRI 조창식 AI컴퓨팅시스템SW연구실장은 탱고 프레임워크를 적극적으로 공개하고, 산업체·학계·커뮤니티 등과 협력, 공동 개발해 빠르게 기술 상용화할 예정이다. 앞으로도 매년 반기별로 새로운 버전의 소스코드를 깃허브로 공개할 것이며 연 1회 하반기에는 공개 세미나를 개최, 기술을 공유할 계획이다라고 말했다.

정보통신기획평가원(IITP) 장문석 SW PM탱고(TANGO)의 기술개발이 완료되면 외산 클라우드가 독점하고 있는 인공지능 개발도구 분야에서 국내 클라우드 업체의 산업 경쟁력 확보가 가능하다. ETRI의 신경망 개발 지식과 경험은 국내 소프트웨어 산업 경쟁력 제고에 큰 도움이 될 것이다라고 밝혔다. <보도자료 본문 끝>

참고1

노코드(No-Code) R&D 과제 공개 행사(안) 1

행사 개요

(목적) 기존 산업에서도 인공지능 응용SW를 손쉽게 개발할 수 있도록 지원하는 SW R&D 과제핵심 알고리즘 공개 및 홍보

- 금번 2회 행사로, 이후 남은 과제 기간(~25년)까지 반기별로 새로운 버전의 소스코드를 공개하고, 연 1회(하반기) 공개 세미나 개최 예정

(행사명) 인공지능 기술의 대중화를 위한 TANGO 커뮤니티 2회 컨퍼런스

TANGO(Target Aware No-code neural network Generation and Operation framework)는 본 과제의 개발·확산을 지원하기 위한 오픈소스 커뮤니티의 명칭

(일시/장소) 11.1(수) 13:30~17:45 / 서울 과학기술회관 대회의실2

(주관/후원) ETRI / 래블업, 웨다, 테슬라시스템(국내SW기업), 한국인공지능협회, 서울대병원, 고려대학교, 홍익대학교, 중앙대학교, 조지아공과대학교

(주요내용) 본 과제를 운영하는 오픈소스 커뮤니티 및 현재까지 개발된 심 기술 소개를 통한 외부 개발자·사용자 유인

참고2

노코드(No-Code) R&D 과제 공개 행사(안) 2

행사 계획

참고3

기존 기술과의 차이점 - MLOps 통합 파이프라인 제공

(MLOps 개념) MLOps는 기계학습의 전체 라이프사이클을 관리하며, 단순한 기계학습 모델뿐만 아니라 데이터 수집/분석부터 모델 학습/배포까지 전과정을 하나의 AI 라이프사이클로 보고 통합 개발을 지원함

ML(Machine Learning, 기계학습) 시스템에 DevOps를 적용한 개념

기존 기술의 문제점

- (기존 수동 머신러닝) 데이터 준비~데이터 라벨링~AI모델 개발~AI학습~AI기반 응용SW개발~설치·실행까지 SW개발자가 직접 개발

- (기존 자동 머신러닝) 구글, 아마존, MS 등 외산 클라우드 업체들은 MLOps 구를 지원하나, 타겟 적응형 신경망 자동생성 지원은 부족하며, 자사의 클라우드 시스템 배포를 가정하고 도구를 제공

신경망 자동생성 현존 기술 수준은 이미지 분류(Classification)의 자동화 위주 연구되고 있으나, 이는 실제 산업 현장에서 적용하기 어려움

산업 현장은 단순히 단일 이미지가 어떤 항목에 해당하는지 분류하는 것을 넘어 이미지 속의 여러 객체를 분류하고 위치를 표시하는 객체 검출(Object Detection) 필요(붙임 참조)

타겟 개발과 설치·실행 단계(배포 단계)를 하나의 도구로 할 수 있도록 편의성을 제공하는 통합 기술 부재

(본 과제 : 신경망 개발 통합 파이프라인 지원) TANGO데이터 준비~데이터 라벨링~AI모델 개발~AI학습~AI기반 응용SW개발~설치·실행까지 ML시스템 개발 전 과정을 지원

- 타겟 디바이스 적응형 신경망을 자동생성하고 다양한 환경(클라우드·엣지·온디바이스)에 최적화된 설치·실행까지 하나의 도구로 자동화

참고4

기존 기술과의 차이점 - 다양한 배포 환경 지원(1)

다양한 배포환경, 다양한 추론엔진 지원

기존 기술의 문제점

- 구글, MS, 아마존 등 글로벌 기업에서 클라우드를 이용한 신경망 생성 도구를 지원하고 있으나, 클라우드 자원 사용에 적합한 도구이며 개발자가 원하는 디바이스 기반 개발도구로는 한계가 있음

- 응용SW의 설치·실행은 클라우드 기업의 경우 다양한 환경(엣지, 온디바이스)에 대한 지원이 부족하며, HW 기업(NVIDIA 등)의 경우 자사 HW에서만 사용 가능한 환경 지원

(본 과제 : 다양한 배포환경 지원) 클라우드 서버로부터 엣지 서버, PC 및 다양한 온디바이스 시스템에 이르는 다양한 신경망 배포 환경 지원

- (다양한 신경망 가속기 지원) 산업 현장에서 많이 요구되는 이미지 분류와 영상 내 객체 탐지에 대한 신경망을 지원하며, 연산 가속기 종류에 따라 신경망을 최적화하는 라이브러리를 적용하도록 함

x86, ARM CPU 지원

NVIDIA GPU 뿐만 아니라 ARM의 휴대폰 가속기인 Mali, Adreno 등을 지원

. NVIDIA GPU (PC/서버 환경용 RTX 3090, 4090 및 온디바이스 환경인 Jetson Orin, Xavier, Nano 등), 퀄컴 Adreno GPU, ARM Mali GPU 지원

Odroid N2 NPU 지원

- (다양한 추론엔진 지원) 다양한 추론엔진에서 신경망이 동작될 수 있도록 학습된 신경망 모델의 자동 변환 기능 제공

PyTorch, NVIDIA TensorRT, 안드로이드 스마트폰 TensorFlow Lite 추론엔진 지원

Apache 재단의 TVM, ARMACL(Arm Compute Library) 추론엔진 지원

참고5

기존 기술과의 차이점 - 다양한 배포 환경 지원(2)

(타겟 디바이스 인지형 신경망 자동생성) 다양한 하드웨어와 추론엔진상에서 신경망이 동작될 수 있도록 타겟 HW 성능을 인지하여 자동으로 신경망을 생성하고 배포함

기존 기술의 문제점

- 산업 분야별도 사용되는 다양한 디바이스 환경에서 인공지능 신경망을 구동하려면 전문가적 노하우가 요구되며, 신경망을 생성하고 디바이스 플랫폼에 적합한 신경망으로 최적화하는 단계를 거쳐야 함

- 신경망 가속이 없는 CPU부터, NPU, GPU 등의 가속환경이 있는 디바이스들이 존재하며, 각 디바이스에 맞는 최적 신경망을 구축해야 성능이 보장됨

(본 과제 : 타겟 디바이스 적응형 신경망 생성) 신경망 실행환경(추론엔진, 연산자원)에 최적화되도록 신경망 모델의 변환, 최적화, 실행 코드 자동 생성 기능을 제공하는 HW-aware 신경망 배포탑재 기술 제공

- 신경망이 타겟 추론엔진에서 동작될 수 있도록 추론엔진에 의존적인 실행 코드 자동 생성

- 신경망 입력 포맷에 맞도록 데이터를 가공하여 입력하는 전처리 과정과 신경망 모델 실행 결과를 해석하는 후처리 과정의 코드 자동 생성 기능 제공

참고6

데이터 라벨링 방식과 산업 현장 적용