사람들 목소리 톤 실시간 반영
부정적 감정땐 어두운 색 표현
웃는표정·하이톤엔 밝게 변화
‘기계가 인간의 감정을 읽고 반응하는 것이 가능할까?’ 사람들의 표정과 목소리 톤 등 감정을 데이터로 전환해 이를 표현해주는 ‘감정 인공지능(AI)’에 글로벌 업계가 주목하고 있다. 최근 마이크로소프트(MS)가 감정 AI를 시각적으로 구현한 건축물을 공개하면서 관심이 더욱 뜨거워지고 있다. 5일 업계에 따르면, 최근 MS 미국 워싱턴 캠퍼스 빌딩 99 로비에 감정 AI 구조물인 ‘에이다(ADA·사진)’가 설치됐다. 에이다는 타원 모양의 퍼빌리언을 형성하는 육각형 망에 1274개의 유리섬유 막대로 이뤄진 구조물로, 건물을 오가는 사람들의 표정과 목소리 톤 등 ‘감정 데이터’를 실시간으로 반영해 빛과 색을 정교하게 변환한다.
에이다 프로젝트의 기본 원리에는 알고리즘이 자리하고 있다. 부정에서 긍정으로, 혹은 온화했던 감정이 심화되는 등 감정의 농도에 따라 데이터를 숫자로 변환하는 알고리즘이 사용되며, 에이다는 해당 데이터를 다시 색과 빛으로 표현한다. 직원들의 표정 변화가 적거나 낮은 목소리 톤 등 부정적으로 인식되는 데이터가 들어오면 어두운색으로, 반대로 웃는 표정과 높은 목소리 톤 등이 많이 수집될 경우에는 이를 긍정적으로 인식해 더 밝은색으로 변환된다. 건물 전체에는 감정 데이터를 수집할 수 있는 카메라와 마이크 등 센서가 장착돼 실시간으로 반영이 가능하다. 센서를 개발한 대니얼 맥더프 MS 수석 연구원은 “나에 대한 데이터를 살펴본 결과, 평균적으로 오후보다 오전에 두 배 정도 자주 웃는다는 사실을 확인했다. 이번 프로젝트가 우리에게 자신도 미처 알지 못했던 몇 가지 감정 패턴을 깨닫게 해주기를 바란다”며 “우리는 당일 건물이 나타내는 감정을 우리가 직접 결정할 수 있게 됐다”고 말했다.
MS는 기계가 사람들의 감정을 정확하게 감지하는 기술이 미래에 사람과 기계가 함께 사는 환경에서 중요한 한 축이 될 것으로 보고 연구를 지속하고 있다.
맥더프는 앞으로 감정지능(Emotional Quotient)을 갖춘 기술이 더욱 확대될 것으로 전망하고 있다. 그는 “사람의 감정을 읽고 해석하고 반응할 수 있는 시스템을 설계하는 감성컴퓨팅(Affective Computing)이 점점 현실과 가까워지고 있다”며 “상대의 감정과 상황에 맞춰 반응하는 기계는 관계 개선과 인간의 웰빙에 큰 도움이 될 것”이라고 말했다.
이은지 기자 eun@munhwa.com
주요뉴스
시리즈
이슈NOW
기사 추천
- 추천해요 0
- 좋아요 0
- 감동이에요 0
- 화나요 0
- 슬퍼요 0