HWP문서[ETRI 보도자료] ETRI, 국제 인간활동 인식 챌린지 3년연속 수상_F.hwp

닫기

Embargo

없음

배포일자 : 2025.10.22.(수)

배포번호 : 2025-76호

디지털융합연구소

디지털바이오의료연구본부장

박수준(042-860-6899)

E-mail : psj@etri.re.kr

디지털바이오의료연구본부

휴먼증강연구실장

신형철(042-860-6863)

E-mail : shin@etri.re.kr

휴먼증강연구실

책임연구원

정현태(042-860-6727)

E-mail : htjeong@etri.re.kr

대외협력본부

홍보실장

정길호(042-860-0670)

E-mail : khchong@etri.re.kr

홍보실

선임행정원

김민규(042-860-0681)

E-mail : kakapow@etri.re.kr

매수 : 보도자료 3매(참고자료 2매, 사진자료 7매)

배포처 : ETRI 홍보실

ETRI, 국제 행동 인식 챌린지 3년 연속 수상

- UbiComp 2025서 행동 인식 기술 글로벌 경쟁력 입증

- 파운데이션 모델 기반 인간을 이해하는 AI 연구 강화 계획

국내 연구진이HELP(인간 경험 학습 및 예측)팀 명으로 참가한 영국 서섹스대학교 주관서섹스-화웨이 로코모션 챌린지 2025에서 우수한 성과를 거두었다고 밝혔다.

한국전자통신연구원(ETRI)은 휴먼증강연구실 소속 연구진이 국제적으로 권위 있는 학술대회 UbiComp 2025 내에서 열리는 제13회 HASCA(인간 활동 인식 데이터셋 및 응용 워크숍)의 일환으로 진행된 행사에서 좋은 성적으로 수상하게 되었다고 설명했다.

UbiComp은 매년 전 세계 수천 명의 학자와 산업계 전문가가 참여해 유비쿼터스 컴퓨팅과 인공지능 기술의 최신 연구성과를 공유하는 국제학술대회이다. 인간 행동 이해와 센싱 연구 분야에서 가장 영향력 있는 학회 중 하나로 꼽힌다.

HASCA 워크숍의 핵심 프로그램인 SHL(Sussex-Huawei Locomotion) Challenge는 2017년부터 매년 개최되어 왔으며, 웨어러블 센서와 스마트폰 센서를 기반으로 한 인간 이동 및 행동 인식 분야의 기술 경쟁력을 겨루는 대표적인 국제 챌린지다.

2025년 대회에서는 서섹스대학교가 수집한 장기간의 스마트폰 센서 데이터셋(SHL Dataset)을 활용해, 참가팀이 사용자 독립적인 조건에서 8가지 이동 모드를 정확히 분류하는 기술을 개발하고 결과를 제출하도록 요구되었다.

특히 올해는 단순한 인식 정확도뿐 아니라 파운데이션 모델(Foundation Model)을 활용한 창의적이고 혁신적인 접근 방식이 주요 평가 기준으로 포함되었다.

ETRIHELP팀은 IMU2IMG: IMU in the Language of Vision Foundation Models이라는 논문을 제출하여 기술적 완성도와 독창성을 동시에 인정받았다.

연구팀이 제안한 IMU2IMG은 멀티모달 관성측정장치(IMU) 데이터를 RGB 미지 형태로 변환해 시계열 데이터와 시각적 토큰 간의 명시적 정렬을 구현하는 새로운 알고리즘 파이프라인이다.

이를 통해 전통적인 기계학습이나 딥러닝 기반의 기존 방법보다 우수한 성능을 달성했으며, 센서-비전 매핑(Sensor-to-Vision Mapping)의 해석 가능성과 견고함을 확보함으로써 행동 인식의 새로운 가능성을 제시했다.

이번 대회에는 유럽, 북미, 아시아 등 세계 각국의 유수 대학과 연구기관이 참여했으며, ETRI HELP팀은 2023년 1위, 2024년 2위에 이어 올해에도 2위에 입상하며 3년 연속 수상이라는 기록을 세웠다. 이를 통해 ETRI는 인간 행동 인식 분야에서의 글로벌 경쟁력을 다시 한번 입증했다.

특히 이번 성과는 세대 간 연구역량이 자연스럽게 이어지고 있다는 점에서도 의미가 크다. 2023년과 2024년 대회는 오세원 책임연구원이 연구를 주도하여 우수한 성과를 거두었으며, 2025년 대회에서는 새롭게 합류한 신입연구원 이선경 연구원이 제1저자로 참여해 국제적 수상 실적을 이어갔다.

이는 경험 많은 선임 연구진의 기술적 노하우와 신진 연구자의 창의성이 결합된 ETRI의 지속 가능한 연구문화가 빚어낸 결실로 평가된다.

ETRI 휴먼증강연구실 신형철 실장은 HELP팀이 3년 연속 저명한 국제 챌린지에서 수상한 것은 독보적인 연구성과이자 세대 간 연구역량 계승의 성라며 앞으로도 파운데이션 모델 기반의 행동·감정 인식 및 예측 기술 등 인간을 이해하는 AI 연구를 강화해 글로벌 리더십을 공고히 하겠다밝혔다.

이번 연구는 과학기술정보통신부의 지원으로 수행 중인 휴먼이해 인지컴퓨팅 원천기술 연구과제의 일환으로 추진되었다.<보도자료 본문끝>

용어설명

1) 인간 활동 인식 데이터셋(Human Activity Recognition Dataset) : 사람의 움직임, 자세, 행동 등을 센서로 수집해 행동 패턴을 학습·분석하기 위한 데이터로, 인공지능 기반의 행동 인식 기술 개발과 평가에 활용

2) 유비쿼터스 컴퓨팅(Ubiquitous Computing) : 언제 어디서나 컴퓨터와 정보통신 기술을 자연스럽게 활용할 수 있는 환경을 의미하며, 일상 속 사물과 공간에 컴퓨팅 기능이 내재된 지능형 정보사회 구현을 목표로 함

3) 스마트폰 센서 데이터셋(SHL Dataset) : 영국 서섹스대학교가 스마트폰의 가속도계, 자이로스코프, 자기계 등 센서로부터 장기간 수집한 인간 이동 및 행동 데이터를 정제해 공개한 데이터셋

4) 파운데이션 모델(Foundation Model) : 대규모 데이터로 사전 학습되어 다양한 분야에 적응할 수 있는 범용 인공지능 모델로, 적은 추가 학습만으로도 높은 성능을 발휘하는 확장성과 전이학습 능력이 특징

5) 관성측정장치(IMU, Inertial Measurement Unit) : 가속도계와 자이로스코프 등을 결합해 물체의 가속도, 각속도, 자세 변화를 실시간으로 측정하는 센서로, 스마트폰이나 웨어러블 기기의 움직임 분석에 활용

6) 시각적 토큰(Visual Token) : 이미지나 영상 데이터를 인공지능이 이해할 수 있도록 분할·추상화한 정보 단위로, 시각 기반 파운데이션 모델이 사물이나 패턴을 인식하는 기본 요소로 사용

7) 센서-비전 매핑(Sensor-to-Vision Mapping) : 센서로부터 얻은 신호 데이터를 시각적 표현 형태로 변환하여 이미지 기반 인공지능 모델이 이를 처리·분석할 수 있도록 하는 데이터 변환 및 정렬 기법

참고

IMG2IMG 파이프라인 개념도

< 제안된 IMG2IMG 파이프라인 개념도 >