(Jagadish K. Mahendran models his AI-powered, voice-activated backpack that can help the visually impaired navigate and perceive the world around them. Credit: intel)
인텔의 AI 시스템을 이용한 시력 장애인용 네비게이션 시스템이 공개됐습니다. 조지아 대학의 인공지능 연구소의 자가디쉬 K. 마헨드란 (Jagadish K. Mahendran, Institute for Artificial Intelligence, University of Georgia)은 인텔의 OpenCV’s Artificial Intelligence Kit with Depth (OAK-D) 시스템을 이용한 개인용 인공지능 네비게이션 시스템을 개발했습니다.
개념은 간단합니다. 시력이 저하되었거나 혹은 거의 보이지 않는 사람들을 위해 주변 지형에 대한 정보를 제공하는 것입니다. 예를 들어 바로 차도 방향으로 걸어가거나 계단처럼 높아지거나 낮아지는 지형이 있으면 AI 시스템이 음성을 통해 정보를 제공하는 것입니다. 주변 지형이나 특이 사항에 대해서 음성 명령을 내려서 확인할 수도 있습니다. 화장실이나 식당을 검색하라고 음성으로 명령을 내리면 시스템인 인식하고 길을 안내하는 방식입니다.
(동영상)
이 AI 네비게이션 시스템은 4K 스테레오 카메라와 백팩에 넣은 컴퓨터 시스템으로 되어 있습니다. 인텔의 저전력 AI 칩인 인텔 모비디우스 VPU (Intel Movidius VPU)와 인텔 오픈 비노 툴킷 (Intel® Distribution of OpenVINO™ toolkit)을 이용해 주변 환경과 음성을 인식하고 사용자에게 정보를 제공합니다. 내장된 배터리를 통해 최대 8시간 작동이 가능합니다.
개인적인 생각은 크기와 무게를 줄이고 휴대성을 높일 필요가 있다는 것입니다. 4K 스테레오 카메라를 스마트폰과 연동하는 것도 좋은 아이디어입니다. 최신 스마트폰은 AI 처리 능력도 상당히 발달했기 때문에 굳이 별도의 AI 칩도 필요 없고 자체 카메라를 이용하면 여러 개의 카메라를 장착할 이유도 없습니다. 그렇게 되면 인텔 AI 칩이 설 자리가 없긴 한데, 그쪽이 더 비용 효율적이지 않을까 생각합니다.
시력이 저하된 만성 질환자와 노인 인구가 늘어나는 점을 생각하면 이런 시스템의 필요성은 분명합니다. 시력 장애가 저하가 있는 경우 어차피 큰 화면은 필요 없으니 AI 네비게이션 시스템을 더한 시력 장애인용 웨어러블 스마트 기기를 개발하는 것도 좋지 않을까 하는 생각이 드네요.
참고
https://newatlas.com/wearables/visually-impaired-blind-backpack-ai/
댓글
댓글 쓰기