基調講演:検索の未来#SMX
公開: 2022-06-12SMXWestを一週間ライブブログしているBCIブログに注目してください。 これは、ショーのオープニング基調講演であり、 Googleチューリッヒの主任エンジニアであるBehshadBehzadiによるデモの多いプレゼンテーションです。
Behzadiは会話検索のディレクターです。 Danny Sullivanは、Behzadiが以前にSMX Londonでこのプレゼンテーションを行ったと述べています。これは、会話型検索で何が可能かについての驚異的なプレゼンテーションでした。 BehzadiはGoogleに10年間在籍しており、最初の7年間はランキングに取り組み、最後の3年間はNowonTapを含む将来のテクノロジーに取り組んでいます。
これは検索が動いているところであり、グーグルが戦略的にもっと投資しているところです。 キャプテンカークの写真が画面に表示され、次にカークがスタートレックコンピューターに話しかけているビデオが表示されます。 (スタートレックのクリップの前にスキップできない15秒のYouTube広告が再生されると、視聴者は絶対に取り締まります。)
Behzadiが再生する別のビデオクリップは、人工知能オペレーティングシステムを見る映画「Her」からのものです。 これらの映画はどちらも、答えと助けを求めて機械に話しかける未来を想像しています。 私たちはこの種のAI体験に移行しており、20年後や200年後になることはありません。 それは私たちが今向かっている方向であり、彼のデモで見るように、私たちはすでにかなり近づいています。
検索がこの時点までどのように進化したか
2002年以降、検索機能が同義語を理解する方法の初期の突破口。彼は、「cs」を含むクエリのリストと、Googleが「cs」を異なる方法で解釈する方法を示しています。
- 「カリフォルニアでの博士号取得」—> cs =コンピュータサイエンス(Googleの解釈)
- 「csエクイティファンドの1日あたりの価格」—>cs=クレディスイス
- 「csbankhayfield」—>cs=市民の州
- 「2007csワールドカップ」—>cs=カウンターストライク
- 「バスアムステルダムcsから空港へ」—>Googleはcs=中央駅を解釈しました
もう1つの大きな前進は、2007年のユニバーサル検索でした。リンゴとオレンジを比較しているため、結果の問題全体がはるかに難しくなります。
そして、2012年に、知識グラフとGoogleが「文字列ではなく物」を理解することが、現実世界を理解する上での次の飛躍でした。 20億のエンティティ、540億のファクト、38,000のタイプのエンティティ、そして成長しています。 (Behzadiは、プレゼンテーションを行うたびにこれらの番号を更新します。)
世界は変化しています
世界はますますモバイルになりつつあります。 2015年には、デスクトップよりも携帯電話やタブレットで多くの検索が行われました。 ですから、未来を築きたいときは、モバイルを思い浮かべます。 スマートフォンのほかに、あなたと一緒に移動し、あなたがどこにいるかのコンテキストを知っている他のデバイスがあります。 これには、時計などのウェアラブル、さらにはスマートカーも含まれます。
モバイルの世界では、人々はますますスピーチを使用しています。 新しいデバイスでは、音声が最も簡単で、場合によっては唯一の入力方法です。
- 音声検索の比率は、タイプスピーチよりも急速に成長しています。
- 音声検索が成長した理由は、今日の音声認識が実際に機能しているためです。
- 今日、音声認識の単語誤り率は8パーセントです。
注意すべきもう1つのことは、音声検索は正常であるということです。 あなたが今日あなたの電話に検索を話すとき、それが奇妙だと誰も思いません。 したがって、人々はクエリ言語の代わりに、より自然な文を使用します。
「パリの天気はどうですか?」 vs. 「天気パリ」
このモバイルの世界では、人々はアプリとウェブの両方で自分のニーズに対する答えを見つけます。
では、検索の未来は何ですか?
究極のアシスタントを構築します。
究極のアシスタントは次のことを理解する必要があります。
- 世界
- あなたとあなたの世界
- あなたの現在の状況
デモ!
- 世界についての回答
- あなたについての回答
- アプリ
- 行動
- コンテキストと会話
- 今タップで
世界についての回答
「ウォッカで作ったカクテルのリストを見せてくれませんか?」など。
あなたについての回答
「次のフライトはいつですか?」など。 または「私の仕事の住所は何ですか?」
メールを検索するだけでなく、カレンダーでイベントを検索したり、写真でイルカを検索したりできます。写真の認識は非常に強力です。
アプリ
彼はGoogleにタイトルごとに曲を再生するように依頼します。
行動
尋ねるだけでいつでもアラームを設定できます。
コンテキストと会話
音声認識から理解まで—彼が最初に尋ねる音声検索は、 「リギの高さはどれくらいですか?」です。 Googleはその質問を理解していません。 それから彼は「アルプスの山々」と言い、それをグーグルがリストアップします。 そして彼は、 「リギの高さはどれくらいですか?」と尋ねます。 そして今、グーグルはリギ山の高さで答えることができます。
音声補正: 「ウェールズの写真を見せて」と尋ねると、クジラの写真が返ってきます。 次に、 「ウェールズ」と言うと、Googleはそれが修正であると理解し、ウェールズの写真を表示します。
今タップで
彼がおしゃべりをしてレストランの予約について話し合った瞬間から、予約が行われる瞬間まで、それは2回のタップです。
究極のアシスタントはまだサイエンスフィクションですか? それはますます信じられるようになっています。 スタートレックコンピュータまたは「彼女の」オペレーティングシステムの経験に非常に似た何かがほとんどここにあります。 Behzadiはそれらの映画をSFとは呼びませんでした。
検索の未来は、あなたが重要なことに集中できるようにあなたの日常生活を助ける究極のアシスタントです。
Q&A
質問:B2Bでは、ラップトップとの会話はまだ受け入れられません。 B2Bにおけるこのテクノロジーの場所について話していただけますか?
B2Bの回答と処理の機能に関しては同じですが、前に検索されたものに基づいて次の検索を行う場合でも、テクノロジーは同じです。
質問:モバイルとデスクトップでの音声検索の成功率はどれくらいですか? その成功をどのように測定しますか?
クエリの種類が異なるため、これは答えるのが難しい質問です。
質問:私たちと私たちの顧客の多くはアップル製品を持っています。 これらのGoogleテクノロジーをApple製品にどのように拡張できますか?
Appleの電話は良い電話であり、私たちはすべてのユーザーにリーチしたいと思っています。 たぶん彼が今日見せたものの80パーセントはAppleの電話で働いている。 すべてのアプリの統合は難しい部分です。