명령어 안 불러도, 사투리 써도 알아듣는다? AI비서의 진화

“헤이 구글!” “시리야!” AI비서는 이와 같이 명령어로 부른 다음에 검색하고 싶은 내용을 말하는 것이 일반적이었어요. 이제는 명령어로 깨우지 않고 기기를 쳐다본 채로 얘기하면 알아서 해석하는 기술이 개발되었답니다. 지난 12일 구글이 브리핑 세션에서 새로 공개한 기술 중 하나인 ‘룩 앤 톡(Look and Talk)’ 서비스가 바로 그것인데요. 명령어 없이 스마트폰을 보고 “오늘 날씨가 어때?”라고만 해도 구글의 AI인 ‘구글 어시스턴트’가 곧바로 찾아주는 식입니다.

구글 측은 삼성과의 협업 1주년을 기념하여 올 여름부터 갤럭시 워치 4 이용자들이 구글 어시스턴트 앱을 내려 받을 수 있다고 밝혔어요. 밖에 혼자 있을 때 명령어를 외치기가 조금은 머쓱하셨던 분들은 AI 비서를 더욱 자주 이용할 수 있게 되겠죠?

‘혼잣말에도 반응하는 거 아닐까?’ 하는 우려가 들 수도 있어요. 하지만 진화한 AI비서는 이용자가 혼잣말을 하는 건지, AI를 향해 거는 말인 건지를 AI 스스로 파악하고 인식할 수 있다는 말씀! 구글은 이 같은 서비스를 위해 “근접성, 이용자의 머리나 시선 방향, 입 모양, 상황 인지, 이용자 식별 및 의도 분류 등 100개 이상의 신호를 실시간으로 처리하는 데 무려 6개의 머신 러닝 모델이 필요하다”고 설명했어요.

그 외에도 구글의 AI비서는 말을 멈추고 잠시 “음…” 하고 뜸을 들이는 것을 대화의 중단이라고 인식하지 않도록 개발 중이랍니다. 갑작스러운 대화 방해 등에 오작동하지 않고, 인간 언어의 불완전성을 훨씬 더 원활하게 이어질 수 있도록 세심해지는 과정을 겪고 있는 거예요. 국내에서도 사람처럼 감성적으로 응대하고 서비스를 추천하는 SK텔레콤의 ‘AI 에이전트’와 자체 개발한 초거대 AI 하이퍼클로바를 기반으로 한 네이버의 ‘아바타 챗봇’이 개발을 거듭하는 중입니다.

사투리를 알아듣는 AI가 국내에서 개발되었다는 이야기는 이미 많은 분들이 들으셨을 거예요. 명령어가 한정되어 있고 사투리는 알아듣지 못한다는 단점을 극복하게 된 AI비서가 점차 상용화되고 있습니다. 최근 KT에서 출시한 AI 케어 서비스는 어르신의 말동무로서 93%의 정확도로 사투리도 인식할 수 있도록 개발되었죠.

사람의 외로움을 달래주는 AI비서라, 2013년에 개봉한 영화 <그녀(her)>의 모습이 곧 현실화될지도 모른다는 생각이 드네요. 실제 사람과 다를 바 없이 자연스러운 대화를 이어나가는 AI가 개발되는 게 과연 좋기만 한 일인지 깊이 생각해봐야 할 필요도 있겠습니다. 소외된 사람들을 위해 개발한 AI가 다른 사람들을 소외시킬 수도 있으니까요.

출처 : 한국경제, 매일경제

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다