랩뷰는 기존 프로그래밍 솔루션에 비해 정확성과 편의성이 한층 강화됐다는 장점을 가지고 있다. 하지만 복잡한 애플리케이션에 적용될수록 난이도는 점점 높아진다는 특성을 가지고 있다. 이 때문에 전문 엔지니어가 아닌 일반 대학생들이 복잡한 애플리케이션을 구현하는데 랩뷰를 활용하는 것은 결코 쉬운 일이 아니다.
하지만 한국내쇼날인스트루먼트(한국 NI)가 지난 9월 26일 서울 삼성동 코엑스(COEX)에서 개최한 제4회 랩뷰 애플리케이션 공모전에는 전문 엔지니어 못지않은 랩뷰 프로그래밍 실력을 갖춘 이공계 대학생들이 대거 참가, 관련업계의 이목을 집중시켰다.
한국 NI의 하드웨어를 자유롭게 사용할 수 있는 자유부문에서 최우수상을 차지한 한국산업기술대학 팀이 대표적인 사례다. 이 팀이 선보인 수화번역기는 웹캠을 통해 수화 동작을 인식한 후 저장된 데이터를 바탕으로 텍스트와 동영상으로 변환, 화면에 송출하는 방식으로 이뤄진다. 물론 이들이 수화번역기를 만드는데 주로 활용한 소프트웨어는 랩뷰다.
현재 우리나라 청각장애인은 2004년 기준으로 35만 명에 달하지만 정상인과의 의사소통에 어려움이 많다. 이에 따라 수화번역기를 사용하면 의사소통 원활은 물론 소형화를 통한 휴대폰에의 장착도 가능할 것으로 전망되고 있다.
USB 타입의 데이터 수집 장치로 참여하는 지정부문에서는 아이들의 감성교육을 위한 인터랙티브 팻(Interactive Pet)을 출품한 상명대학교 서현주, 권혜경, 김지혜 팀이 선정됐다.
인터랙티브 팻은 맞벌이 등으로 혼자 있는 시간이 많은 아이들을 위해 애완동물을 이용, 사회성을 높여주는 것이다. 실제 화면 속에 있는 강아지의 배고픔 그래프가 일정 수치 이하로 떨어지면 사용자는 입에 밥을 먹여주는 행동을 할 수 있다.
이렇게 하면 내부에 장착돼 있는 버튼 센서가 이를 감지해 배고픔의 그래프 수치를 떨어지게 하는 식이다. 한마디로 사용자의 다양한 행동에 따라 캐릭터가 적절한 반응을 화면상에 나타내 주는 것이다.
레고 마인드스톰 NXT 부문에서는 사운드 센서를 이용한 무인 웹캠을 개발한 경일대학교 팀이 선정됐다. 일반적으로 대형 건물은 CCTV를 이용해 주의가 필요한 공간을 영상으로 전달한다. 하지만 이는 전체 공간을 포함하지 않으며, 단순한 영상의 전달은 사용자의 부주의로 사고 발생의 위험을 가져올 수 있다.
사운드 센서를 이용한 무인 웹캠은 이 같은 문제점을 해결하기 위해 만들어진 것이다. 즉 웹캠은 주의가 필요한 공간을 상시적으로 촬영해 저장 및 기록한다.
특히 그 공간을 벗어난 지역에 대해서는 소리를 감지해 촬영 범위를 변경해 저장한다. 이 같은 방식을 이용하면 인건비와 유지비 절감은 물론 최소의 설치로 최대 범위를 관리할 수 있다.
적외선 센서를 사용해 음악과 그림을 감상하며 감성 발달을 유도해 주는 감각놀이 시스템을 출품한 상명대학교 김용우, 이상열, 이규민 팀은 파퓰러사이언스 특별상을 수상했다.
이 시스템의 첫 번째 모드는 화면에 음마다 색으로 표현된 음표가 나와 색에 맞는 영역을 선택하면 멜로디를 연주한다. 두 번째 모드는 동물인식 게임으로 8개의 영역마다 동물 모양과 그에 맞는 동물 울음소리가 있다. 이에 따라 동물에 따른 울음소리를 선택하면 재미있게 동물과 동물소리에 대해 알 수 있게 되는 것이다.
이번 공모전에 참여한 대학생들은 최우수상을 비롯한 전원에게 각각 100만원의 상금과 상패, 그리고 랩뷰 정규교육 수강권이 수여됐다. 한국 NI의 아카데믹 마케팅 담당 박세일 과장은 “이번 공모전에 참여한 대학생들의 랩뷰 활용 실력은 이미 전문 엔지니어 수준에 근접한 수준”이라며 “새롭게 신설된 레고 마인드스톰 NXT 부문에서는 평소 로봇 애플리케이션에 관심이 많던 학생들이 대거 참가했다”고 말했다.
과학기술 대중화에 앞장서고 있는 파퓰러사이언스는 이공계 대학생들의 활발한 연구 활동과 기술 개발을 장려, 국내 과학기술 경쟁력 강화에 이바지하기 위해 랩뷰 애플리케이션 공모전을 후원하고 있다.
구본혁 기자 nbgkoo@sed.co.kr
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >