기조 연설: 검색의 미래 #SMX
게시 됨: 2022-06-12일주일 내내 SMX West를 라이브 블로깅하는 BCI 블로그를 시청하고 계십니다. 이것은 Google Zurich의 수석 엔지니어인 Behshad Behzadi 의 데모가 많은 프레젠테이션인 쇼의 개막 기조 연설입니다.

Behzadi는 대화 검색 책임자입니다. Danny Sullivan은 Behzadi가 이전에 SMX London에서 이 프레젠테이션을 했으며 대화 검색으로 가능한 것에 대해 놀라운 프레젠테이션을 했다고 말합니다. Behzadi는 Google에서 10년 동안 근무했으며 처음 7년은 순위 지정 업무를, 마지막 3년은 Now on Tap을 포함한 미래 기술 분야에서 근무했습니다.
바로 여기에서 검색이 이동하고 있으며 Google이 전략적으로 더 많은 투자를 하고 있습니다. 커크 선장의 사진이 화면에 나오고 커크가 스타트렉 컴퓨터와 대화하는 비디오가 나옵니다. (스타트렉 클립 전에 건너뛸 수 없는 15초 YouTube 광고가 재생되면 청중은 절대적으로 열광합니다.)
Behzadi가 재생하는 또 다른 비디오 클립은 인공 지능 운영 체제가 나오는 영화 "Her"입니다. 이 두 영화는 답과 도움을 위해 기계와 대화하는 미래를 상상합니다. 우리는 이런 종류의 AI 경험으로 이동하고 있으며 20년 후나 200년 후가 아닙니다. 그것이 우리가 지금 나아가고 있는 방향이며, 그의 데모에서 볼 수 있듯이 우리는 이미 꽤 가깝습니다.
검색이 이 지점까지 발전한 방법

2002년부터 검색 기능이 동의어를 이해하는 방식에 대한 초기 혁신이 시작되었습니다. 그는 "cs"가 포함된 쿼리 목록과 Google이 "cs"를 다르게 해석할 수 있는 방법을 보여줍니다.
- "캘리포니아에서 박사 학위 cs 입학" —> cs = 컴퓨터 과학(구글의 해석)
- "cs 주식 펀드의 일일 가격" —> cs = 신용 스위스
- "cs bank hayfield" —> cs = 시민 주
- "2007 cs 월드컵" —> cs = 카운터 스트라이크
- "공항으로 가는 암스테르담 cs 버스" —> Google 해석 cs = 중앙역
또 다른 큰 진전은 2007년의 Universal Search였습니다. 우리가 사과와 오렌지를 비교하고 있기 때문에 결과의 전체 문제는 훨씬 더 어려워집니다.
그런 다음 2012년 지식 정보와 Google은 "문자열이 아닌 사물"을 이해함으로써 현실 세계를 이해하는 데 한 걸음 더 나아갔습니다. 20억 개의 엔터티, 540억 개의 사실, 38,000개 유형의 엔터티 - 그리고 계속 증가하고 있습니다. (Behzadi는 프레젠테이션을 할 때마다 이 숫자를 업데이트합니다.)
세상이 변하고 있다
세상은 점점 더 모바일화되고 있습니다. 2015년에 사람들은 데스크톱보다 휴대전화와 태블릿에서 더 많은 검색을 수행했습니다. 그래서 미래를 건설하고 싶을 때 모바일을 생각합니다. 스마트폰 외에도 당신과 함께 움직이며 당신이 있는 곳의 상황을 알 수 있는 다른 장치가 있습니다. 여기에는 시계와 같은 웨어러블과 스마트 자동차도 포함됩니다.
모바일 세계에서 사람들은 점점 더 말을 사용합니다. 새로운 장치에서는 음성이 가장 쉽고 때로는 유일한 입력 방법입니다.
- 음성 검색의 비율은 유형 말보다 빠르게 증가하고 있습니다.
- 음성 검색이 성장한 이유는 오늘날 음성 인식이 실제로 작동하고 있기 때문입니다.
- 오늘날 음성 인식 단어 오류율은 8%입니다.
주목해야 할 또 다른 사항은 음성 검색이 정상이라는 것입니다. 오늘 전화로 검색어를 말할 때 이상하게 생각하는 사람은 아무도 없습니다. 따라서 사람들은 쿼리 언어보다 더 자연스러운 문장을 사용합니다.

“파리의 날씨는 어떻습니까?” 대 "날씨 파리"
이 모바일 세계에서 사람들은 앱과 웹 모두에서 자신의 요구 사항에 대한 답을 찾습니다.
그렇다면 검색의 미래는?
궁극의 조수를 만들기 위해.
궁극적인 조수는 다음을 이해해야 합니다.
- 세계
- 당신과 당신의 세계
- 현재 컨텍스트
시민!
- 세계에 대한 답변
- 당신에 대한 답변
- 앱
- 행위
- 컨텍스트 및 대화
- 지금 온 탭
세계에 대한 답변
예를 들면 "보드카로 만든 칵테일 목록을 보여 주시겠습니까?"
당신에 대한 답변
예를 들어 "다음 비행기는 언제입니까?" 또는 "내 직장의 주소는 무엇입니까?"
이메일 검색과 함께 일정에서 이벤트를 검색할 수 있으며 사진에서 돌고래를 검색할 수 있으며 사진 인식이 상당히 강력합니다.
앱
그는 Google에 제목별로 노래를 재생해 달라고 요청합니다.
행위
요청하기만 하면 언제든지 알람을 설정할 수 있습니다.
컨텍스트 및 대화
음성 인식에서 이해까지 - 그가 묻는 첫 번째 음성 검색은 "Rigi는 얼마나 높습니까?"입니다. Google은 질문을 이해하지 못합니다. 그런 다음 그는 "알프스의 산"이라고 말했고 Google에서 목록을 나열했습니다. 그리고 는 "리기 키가 몇이야?" 라고 묻는다. 이제 Google은 Rigi 산의 높이로 답할 수 있습니다.
음성 수정: "웨일즈 사진 보여 줘"라고 물어보면 고래 사진을 다시 받을 수 있습니다. 그런 다음 "웨일즈" 라고 말하면 Google은 이것이 수정임을 이해하고 웨일스 사진을 보여줍니다.
지금 온 탭
식당 예약에 대해 이야기를 나누는 순간부터 예약이 되는 순간까지 두 번의 탭입니다.
궁극의 조수는 여전히 공상 과학 소설입니까? 점점 믿음이 가고 있습니다. Star Trek 컴퓨터 또는 "그녀" 운영 체제의 경험과 매우 유사한 것이 거의 여기에 있습니다. Behzadi는 그 영화를 공상 과학 소설이라고 부르지 않을 것입니다.
검색의 미래는 중요한 일에 집중할 수 있도록 일상 생활을 도와주는 최고의 도우미입니다.
Q&A
질문 : B2B에서 노트북과의 대화는 여전히 허용되지 않습니다. B2B에서 이 기술의 위치에 대해 말할 수 있습니까?
B2B에 대한 응답 및 작업 수행 기능 측면에서는 이전에 검색된 내용을 기반으로 다음 검색을 수행하는 경우 동일하고 기술은 여전히 동일합니다.
질문 : 모바일과 데스크톱의 음성 검색 성공률은 어떻게 됩니까? 그 성공을 어떻게 측정합니까?
문의 유형이 다르기 때문에 답변하기 어려운 질문입니다.
질문 : 우리와 우리 고객 중 많은 사람들이 Apple 제품을 가지고 있습니다. 이러한 Google 기술을 Apple 제품으로 어떻게 확장할 수 있습니까?
Apple 휴대폰은 좋은 휴대폰이며 모든 사용자에게 다가가고 싶습니다. 그가 오늘 보여준 것의 80%는 애플 폰에서 작동할 것입니다. 모든 앱 통합이 더 어려운 부분입니다.