인공지능, 한 걸음 더 가까워지다 | 제일기획 블로그
2017.06.01. 10:00

지난 5월 17일부터 19일까지 미국 마운틴뷰에서 구글의 연례 개발자 행사 ‘I/O 2017’이 열렸다. 마이크로소프트 ‘빌드’, 페이스북 ‘F8’, 애플 ‘wwdc’와 더불어 개발자들이 손꼽아 기다리는 행사 중 하나로100만 원이 넘는 티켓 가격을 자랑함에도 신청자가 많아 추첨 방식으로 참석자를 선정한다. 작년부터 샌프란시스코 모스콘 센터에서 마운틴뷰 쇼어라인 앰피씨어터로 자리를 옮겼고, 일부 세션은 유튜브로 생중계된다.

▲ I/O 2017 로고 ©events.google.com

 

구글 I/O 2017, 인공지능에 집중

I/O는 컴퓨터의 입출력 신호(Input and Output)를 의미하는 동시에 오픈 이노베이션(Innovation in the Open)을 뜻한다. 구글이 개발 중인 하드웨어와 소프트웨어에 대해 심도 있는 세션을 제공할 뿐만 아니라 디지털 생태계의 거대 플랫폼으로서 자기 방향성을 보여주는 자리이기 때문에 업계에 막대한 영향력을 미친다. 예전 크롬OS 기반의 ‘크롬북’이나 자율주행 기술을 구현한 ‘구글카’, IoT 환경 구축을 위한 ‘구글 홈’ 및 VR 플랫폼 ‘데이드림’ 등이 모두 I/O를 빌려 공개된 바 있다.

올해는 컨퍼런스의 시작부터 끝까지 인공지능을 중심으로 이야기가 진행됐다고 해도 과언이 아닐 정도로, 현재 구글의 최우선 과제가 인공지능의 고도화 및 상용화에 있음을 잘 보여 줬다. 작년에도 구글 어시스턴트와 구글 홈의 시범에 많은 시간을 할애했던 구글은 올해 컨퍼런스에서도 인공지능을 활용해 어떤 형태의 디지털 생태계를 구축하려 하는지 구체적인 청사진을 밝혔다. 이미 연초의 CES와 MWC, SXSW 같은 글로벌 컨퍼런스에서 ‘거의 모든 것의 인공지능(AoE, AI of Everything)’ 동향을 확인할 수 있었던 바, 구글의 AI 서비스와 그 의미에 대해 살펴본다.

 

순다르 피차이의 키노트, ‘모바일 우선에서 AI 우선으로’

순다르 피차이(Sundar Pichai) CEO가 키노트 연설로 컨퍼런스의 포문을 열었다. 순다르 피차이를 비롯해 구글의 개발자들이 I/O에서 공개한 서비스들의 공통점은 사용자의 번거로움을 최소화할 수 있도록 고안됐다는 점이다. 사용자가 특별한 행위(Input)를 취하지 않아도 인공지능이 스스로 의도를 파악하고 다음 단계를 진행한다.

예컨대 ‘스마트 리플라이(Smart Reply)’는 인공지능이 상대방의 메일 내용을 이해하고 적절한 답장을 제공하는 서비스다. 사용자는 인공지능이 제시한 내용 중 하나를 선택해 그대로, 또는 편집해 전송할 수 있다. 메일 전송처럼 일상적으로 이뤄지는 행위에도 인공지능을 적용, 생활 전반에 걸쳐 사용자의 경험을 제고하겠다는 뜻이다.

▲ 메시지의 맥락을 이해하고 자동으로 답장을 제공하는 ‘스마트 리플라이’ 기능 Ⓒtheverge.com

순다르 피차이는 모바일 디바이스가 기계와 인간이 인터랙션하는 방식을 획기적으로 바꾸는 분기점이 됐다면, 이제는 인공지능이 그 역할을 할 것임을 강조했다. ‘언제 어디서든’ 인터랙션이 가능해질 뿐만 아니라, 더 편리하고 덜 번거로운 방식으로 기계와 소통할 수 있게 된 것이다. ‘인공지능 우선’을 새로운 기조로 삼은 구글은 사용자가 생활 속에서 활용할 수 있는 AI 서비스를 제공하는 데 주력할 듯하다. 구글 검색은 머신러닝을 활용해 노출 순위를 조절할 것이고, 스트리트뷰는 거리 표지판을 자동적으로 인식해 의미를 파악할 것이다.

 

‘구글 렌즈’, 이미지 기반의 인터랙션

‘구글 렌즈’는 올해 새롭게 공개된 인공지능 서비스로, 이미지를 활용한 컴퓨팅을 지원한다는 점에서 ‘구글 고글’을 상기시킨다. 카메라 렌즈를 사람의 눈처럼 사용해 인공지능이 이미지를 판별하고 적합한 행동을 자발적으로 취하는 것이다. 지금까지 이미지 인식 기술이 대개 그 대상물이 무엇인지 ‘식별(Identification)’하는 데 그쳤다면 이제는 식별한 결과에 따라 다음 행동을 취할 수 있다.

▲ 다양하게 활용될 수 있는 구글 렌즈 Ⓒtechcrunch.com/by Sarah Perez

렌즈에 레스토랑 간판을 비추면 해당 레스토랑의 메뉴와 가격 정보를 제공하고, 라우터의 무선인터넷 비밀번호를 촬영하면 디바이스를 무선인터넷에 연결한다. 외국어를 보여 주면 구글 번역을 이용해 번역된 결과를 보여 준다. 순다르 피차이는 구글 렌즈를 구글 어시스턴트 및 구글 포토에 우선적으로 적용한 후 차츰 그 사용처를 넓혀갈 계획을 밝혔다.

여태껏 음성 및 텍스트 기반의 챗봇 또는 VPA 서비스가 일상적으로 사용할 수 있는 인공지능으로 각광을 받아 왔다면, 구글 렌즈는 이미지를 ‘입력신호(Input)’로 활용하는 인터페이스를 제시한다. 이는 스냅챗, 인스타그램, 페리스코프 등이 대변하는 이미지/동영상 중심 커뮤니케이션 트렌드와도 맞아떨어지는 변화다. 이미지 인식 오차율이 놀랄 정도로 줄어든 덕분에, 카메라 렌즈가 사용자 최전방에 서서 이미지를 활용해 정보를 검색하고 그 결과를 공유하며 물건을 구매하는 등의 액션을 전두지휘할 수 있게 된 것이다.

과거 구글이 컴퓨터에게 무작위의 데이터를 학습시킨 후 컴퓨터 스스로 고양이 사진을 파악하게 했던 히스토리는 매우 유명한데, 이제는 컴퓨터가 수많은 사진 중 고양이를 골라낼 수 있을 뿐만 아니라 특정한 품종의 고양이가 어떤 행위를 하는 사진만 골라낼 수 있는 수준으로 나아가고 있다. 이처럼 인간이 인식하지 못하는 부분까지 찾아내는 ‘초인간적(Super-human)’ 인공지능이 보편화될 때, 그런 기능을 활용한 서비스도 훨씬 더 다각화된 형태로 제공될 것이다.

▲ 이미지 인식 정확도의 제고로 인간보다 더 정확하게 이미지를 인식할 수 있게 된 인공지능 © google.com

 

사용자 편의성을 보장하는 ‘오케이 구글’ 어시스턴트

이번 I/O에서는 구글 어시스턴트와 구글 홈의 개선 내역도 함께 발표됐다. 구글 어시스턴트는 현재 구글이 가장 주력하고 있는 AI 서비스로, 구글 렌즈 역시 구글 어시스턴트의 일부로 포함될 수 있다. 사용자는 ‘오케이 구글’을 통해 이미지, 텍스트, 음성을 필요에 맞게 활용하며 다양한 디바이스를 통합적으로 관리하고 사용할 수 있다. 스마트폰으로 메모를 촬영하면 인공지능이 스케줄을 파악, 정해진 시간에 웨어러블과 구글 홈 스피커를 통해 알림을 주는 식이다.

구글은 인공지능 생태계를 넓히기 위해 구글 홈, 구글 스마트폰, 구글 메신저 앱뿐만 아니라 API를 탑재한 어느 디바이스에서든 오케이 구글을 사용할 수 있도록 했다. 소니, 파나소닉, LG전자, 뱅앤올룹슨 등이 API 탑재 디바이스를 출시할 예정이다. 현재 구글 어시스턴트의 음성 인식 정확도는 95% 이상으로, 여러모로 구글 어시스턴트에 기대할 수 있는 부분이 커진 셈이다.

▲ 대화형 주문을 제공할 수 있게 된 ‘구글 어시스턴트’ ©assistant.google.com

또한 구글 어시스턴트가 외부 서비스와 상호작용해 커머스 기능을 즉각 진행할 수 있게 한 점에서도, 생활 전반에 걸쳐 사용자의 편의를 도모하려는 의지를 잘 보여 준다. 더불어 구글 홈에는 핸즈프리 통화 기능이 생겼고, 크롬캐스트와의 연동을 통해 사용자가 음성 명령으로만 원하는 음악을 듣고 영상을 재생하며 인터넷 검색 결과를 텔레비전 스크린으로 볼 수 있게 됐다.

▲ 핸즈프리 기능 등이 추가된 ‘구글 홈’

순다르 피차이가 굳이 ‘구글 포 잡스(Google for Jobs)’라는, 머신러닝 기반의 일자리 매칭 서비스를 I/O에서 소개한 이유 또한 인공지능을 일상 속 여러 형태로 자리 잡게 하겠다는 의지를 드러내기 위한 것으로 보인다.

▲ 머신러닝 기반의 일자리 매칭 서비스 ‘구글 포 잡스’ Ⓒengadget.com/by Roberto Baldwin

 

사용자 정보의 축적, 구글 생태계의 고도화

이 외에도 작년 구글 I/O에서 공개했던 VR 플랫폼 ‘데이드림’의 다음 버전이 공개됐다. PC나 모바일 디바이스 없이 독립적으로 VR 콘텐츠를 즐길 수 있도록 데이드림 헤드셋이 출시될 것이다. 자체 디스플레이와 프로세서를 갖고 있으며, 주변 사물을 감지해 사용자의 포지션을 감지하는 센서 기능도 갖춘 형태로서 HTC, 레노버 등과 협력해 시장에 나올 예정이다. 한편 구글의 증강현실 프로젝트 ‘탱고(Tango)’ 또한 예전보다 고도화돼, 사용자의 주변 환경을 인식한 후 재구성해 보여줌으로써 AR경험을 한층 생생하고 몰입력 있게 만들 계획이다. I/O에서는 탱고를 이용한 교육 프로그램도 시연했다.

▲ VR 경험을 위한 데이드림 헤드셋 ©google.com

그러나 무엇보다 올해의 구글 I/O는 기념비적인 이벤트를 개최하고 새로운 하드웨어를 공개하는 데 강조점을 두기보다는 점진적이고도 실질적인 AI 서비스의 개선 방향을 밝히는 데 집중했다. 이런 움직임은 다른 테크 컨퍼런스에서도 두드러지게 나타나는 것으로, 페이스북과 애플을 비롯해 많은 IT 회사가 사용자들에게 놀라움을 선사하는 쇼케이스적 재미 대신 구체적인 서비스 설명에 무게를 두고 있다. 이미 디지털 생태계가 어느 정도 단단한 형태를 갖추었고, 기술의 혁신성보다는 사용성과 편의성에 초점이 맞춰지는 지금 구글을 비롯한 IT 회사들의 당연한 선택인 듯하다.

특히 구글이 인공지능 서비스를 통해 얼마나 더 많은 사용자 데이터를 모을 수 있을지, 그를 활용해 어떤 식으로 개인화된 서비스 및 마케팅을 진행할지에 대해서도 관심이 쏠리고 있다. 일견 사소해 보이는 인공지능 서비스들, 예컨대 사진 속 인물을 인식하고 그들에게 사진 공유를 추천하는 ‘구글 포토’ 기능 등이 성공적으로 구현되기 위해서는 인공지능이 사용자 정보를 수집 및 학습해야 한다. 더 많은 데이터를 얻을수록 더 정확한 서비스를 제공, 사용자에게 만족감을 줄 수 있기 때문이다.

뿐만 아니라 구글 렌즈, 구글 어시스턴트, 구글 포토 등 일상생활과 긴밀한 관계를 맺고 있는 서비스를 이용하는 사람들이 늘어날수록 구글은 자연스럽게 사용자가 자주 가는 장소, 자주 만나는 사람, 자주 먹는 음식 등 다양한 사용자 데이터를 얻을 수 있다. 플랫폼 회사인 구글이 마이크로소프트나 애플보다 인공지능 생태계 구축에 있어 유리한 고지를 점하고 있다는 평을 듣는 이유이기도 하다.

올해 약 7000명 이상의 개발자들이 참석한 가운데, 구글의 경영진은 생활 깊숙한 곳에 들어앉기 시작한 인공지능의 사례를 보여 줬고, 이제 구글은 ‘모바일 기업이 아니라 인공지능 기업’임을 천명했다. 지금도 안드로이드 사용자는 지속적으로 증가하고 있으며, 구글 검색이나 크롬 브라우저, 유튜브, 구글 맵, 플레이스토어, 지메일 등 구글의 거의 모든 주력 서비스 사용자가 10억 명을 돌파한 상태다. 매일 10억 명 이상이 유튜브에서 영상을 감상하고 8000만 명 이상이 구글 드라이브를 사용하고 있는 지금, 구글은 인공지능의 힘을 빌려 이 거대한 플랫폼을 더 정교하게, 더 통합적으로, 더 매끄럽게 바꾸려 한다. 앞으로 구글이 또 어떤 형태의 생활밀착형 AI 서비스를 내놓을지 그 추이를 지켜볼 만하다.

 

페이스북 트위터 URL 공유 인쇄 목록

소셜로그인 카카오 네이버