2018年1月23日

イベント

Bonfire Next #1 イベントレポート

  • このエントリーをはてなブックマークに追加

Cover Image

こんにちは!
新卒1年目デザイナーのBonfire Next運営 加納です。
1月9日(火)に、弊社のLODGEでBonfire Next #1を開催しました。
Bonfire Nextとは、”近い将来取り組むべきこと”にフォーカスした情報共有を定期的に行う勉強会/交流会イベントです。
様々なテクノロジーが台頭してくるなかで、エンジニアやデザイナーが未来に向けてどのように取り組んでいくべきか、について考えられる場を目指しています!

テーマ「多様化するインターフェースの活用」

記念すべき第一回目となるBonfire Nextのテーマは「多様化するインターフェースの活用」です!
ヤフーからYahoo!カーナビ サービス責任者の上永が登壇し、ゲストスピーカーとしてWHITE Inc. プランナー/UXデザイナーの伊東さん、NECビジネスデザインセンター クリエイティブマネージャーの安さん、Google Cloud デベロッパーアドボケイトの佐藤さんら3名の方にもお話ししていただきました。

1. 実例から見る VUIアプリの企画から分析まで

伊東 春菜
WHITE Inc. プランナー/UXデザイナー

一人目の登壇者はWHITE Inc.で企画、VUIアプリのUXデザインを担当されている伊東さん。

Cover Image

今回は昨年10月にローンチされたGoogleアシスタント日本史語呂合わせを中心にVUI(Voice User Interface)アプリについてお話しいただきました。
日本史語呂合わせは「鳴くよ(794)ウグイス?」や「嫌な世(1874)直せと?」など、年号の語呂合わせの問いかけに対して、ユーザーが声で答えを言い当てるクイズゲームだそうです。

VUIアプリはユーザと話をするためアプリ内の人格を設定する必要があり、日本史語呂合わせでは語呂丸くんという戦国武将のキャラクターを設定。
語呂丸くんは、「背伸びをしている子どもだが偉そう。」「ゆっくりと力強くしゃべる。」といった人格だそうです。
このような人格の設定によって機械らしさを消し、人間らしさを出すのだと話されていました。

次に、dashbotを用いた分析についてお話しいただきました。
分析結果として、ユーザーが語呂丸くんに対して「泣くようぐいす?」といった質問をするケースが多いことが判明。
以前はこの質問に対して「もう一度いってくれぬか。」といった返答をしていたのですが「わしに問題を出してくるとはお主やるな。」というような粋な返しをする様に改善したそうです。

従来はスマートスピーカーに対して質問して答えが返ってくる動作が多かったと思うのですが日本史語呂合わせはスマートスピーカーから質問(問題)が来るという新たな体験が提供されているなと思いました。
個人的には、ユーザに対してグラフィックに頼らず音声のみでキャラクターを想像してもらうデザインが難しそうだと感じました。
僕は家に帰って早速Google Homeと日本史語呂合わせで遊んでみると5問中2問正解という結果でした。
Android端末だけでも遊べるのでお試しいただいたらいかがでしょうか。

2. テクノロジーの「目的」を明らかにするNECのデザイナーのアクティビテイ

安 浩子
NEC 事業イノベーション戦略本部ビジネスデザインセンター クリエイティブマネージャー

二人目の登壇者はNECビジネスデザインセンターでクリエイティブマネージャーをされている安さん。

Cover Image

まず、NECが掲げる「生体認証ソリューション」の取り組みの一つである顔パス入場についてお話しいただきました。
現状、あらゆる場面で保険証や免許証、パスポートなどの身分証明書の提示が求められ時間がかかってしまいます。
そこで顔パス入場は顔認証によって行列をなくし、スムーズな移動ができます。
実際にヤフオク!ドームで開催されたコンサートの入場に顔パス入場を導入したところ30%入場時間が削減されたそうです。

次に、顔認証のようなテクノロジーを活用したソリューションに対してデザイナーの関わり方をお話しいただきました。
それは、技術を「どう使うか」の前に「誰の何のために(目的)に使うのか」を考えることだそうです。
今後は社会の目線で技術を利用する目的を考える、人の視点を加えるべきだと説明されていました。

上記のリンク内の顔パス入場の紹介動画は可愛くわかりやすく作られて、わくわくする動画になっていました。
紹介動画にもありましたが空港での入国審査や駅の改札、ホテルのチェックインなどが顔パスで入場できれば快適な世界だなと思いました。
新規領域の技術分野では、どうしても特定の技術をどう使って社会貢献するかを考えてしまうような気がします。
そこでデザイナーとして、ユーザーや社会が何を求めているかを考えることは必要不可欠であると感じました。

3. Google Cloudが提供する機械学習API

佐藤 一憲
グーグル合同会社 Google Cloud デベロッパーアドボケイト

3人目の登壇者はGoogle Cloud デベロッパーアドボケイトの佐藤さん

Cover Image

ニューラルネットワークを用いた機械学習API「Google Cloud Platform」についてお話しいただきました。
このAPIを用いれば簡単にGoogleの最新の機械学習技術を活用することができるそうです。

例えばGoogle Cloud Platformのうちの画像分析API「Cloud Vision API」では、画像に何が写っているかを判別し、様々なアプリケーションに活用することができると説明されていました。
佐藤さんはこのAPIのすごさを伝えるためWhat is Cloud Vision API?という動画をつくったそうです。
動画の中で動く、Cloud Vision APIを用いて作られた小さなロボットも佐藤さんの自作。
このロボットのカメラで撮った画像をAPIに送り認識結果を受け取り、画像に映っている顔や、その感情の検知、さまざまな物体の検知もできていました。
ロボットがサングラスを検知したした際には会場から「おおお」という声があがっていました。

次に、Google I/O 2017で毎朝体操というアプリを紹介したお話をしていただきました。
Google I/O 2017での映像がこちらになります。
このアプリでは、スマホを手に持って体操すると腕のモーションを認識して採点してくれるそうです。
体操するときにスマホを持った手でさえもインターフェースになりうることをお話しされていました。

他にもGoogle Cloudを用いたさまざまな動画を見せていただきました。
そのどれもが新しい便利な未来を感じさせられるものでした。
Googleの高度な技術をAPIとして使うことができるので活用の仕方次第で誰でもイノベーションを起こしうるような気がしました。

4. Yahoo!カーナビ 多様化するインターフェイスの活用

上永 徹
ヤフー株式会社 Yahoo!カーナビ サービス責任者

4人目の登壇者はYahoo!カーナビのサービス責任者をしている上永。

Cover Image

数年前までカーナビは車載の据え置き型しかありませんでしたが、スマートフォンアプリとしてYahoo!カーナビがリリースされ、今では1200万DLされ、1日にナビゲートする運転の合計走行距離は地球216周分に相当するそうです。
ユーザーは道路の上にいるため、安心安全を考えるを第一に考えなければならず、運転中には操作させることができないのだと話されていました。

そこで音声による操作が考えられますが、車内の走行音、音楽、空調などの騒音により音声認識が難しく、さらに電池消費量の心配や、ユーザシナリオの複雑化などVUI採用までの課題が大きそうでした。
カーナビのようにユーザーの利用シーンが限られているとインターフェースも制限されてしまうのですね。

話の途中であった、男女で地図の見え方が異なり男性は道を俯瞰して理解する、女性は自分視点の景色で道を理解する傾向にあるというヤフーエンジニアの研究が興味深かったです。
今後、自動運転が主流になっていくだろう世の中でカーナビに求められるUI/UXはスピーディに変わっていくのだろうなと思いました。

パネルディスカッション

今回のテーマである「多様化するインターフェースの活用」にまつわる5つの質問を、4人のスピーカーの方々にお答えいただきました。

Cover Image

1: 新規領域に踏み込んでいく際におけるプロジェクトメンバーやパートナーのモチベーションの上げ方

新規領域に踏み込む際には、今までの価値観ややり方を大切にする人はもちろんいるが、そういった状況でもコミュニケーションを密に取ってビジョンを共有。
そのビジョンを成し遂げるために新規領域に挑戦しようと話すことが重要だとお話しされていました。
PoC(プロトタイプなどを用いて実現可能性の判断や価値の共有などを目的としたテストのこと)の重要性についても話が上がってしました。

2: インターフェースが多様化しはじめているなかで、デザイナーが取り組むべきこと

質問に対して安さんは、今はまだない世界を具体的に空想して、表現して共有する。
これらのアクティビティがいまデザイナーに求められていると感じる。
そうすることでステークホルダーに対して理想の世界を想像してもらえる。とお話しされていました。
顔認証においては、段ボールなどを用いてプロトタイプを作る。
このプロトタイプを用いてアクティングアウトでユーザーシナリオを描くそうです。
他にもVUIにおけるPoCの重要性についても議論がなされていました。

Cover Image

3: インターフェースの多様化に伴うサービスの指標の変化や難しさについて

上永さんから、Yahoo!カーナビはまだプロトタイプが作れていないため、まずは実証実験が必要である。
実験結果を踏まえて収益とユーザの満足度のバランスを踏まえながらサービスの方向性を決めていくことに難しさを感じるそうです。
他にも倫理観のガイドラインを作成するお話や、現状ではVUIアプリの収益化は難しいといったことをお話しされていました。

4: インターフェースが多様化されていくなかで機械学習の強みとは何か

この質問に佐藤さんは機械学習が強いと感じた事例として、Google Homeについてお話しいただきました。
従来の音声認識技術では遠くの声を拾うことができなかったが、遠くから聞こえる音に特化して機械学習させることで遠くの発話も認識できるように。
このように音声認識技術がより実用的になり、今のGoogle Homeができたと説明されていました。
また、佐藤さんとしては機械学習などの知識を持った上でその活用法を考えることができるデザイナーは尊敬する、とおっしゃっていました。

5: 若手が新しい領域でチャレンジしていく際のモチベーションや普段意識していること、アイデアの発想法

この質問に対して、新卒1年目で登壇されている伊東さんは、とにかくやってみることを大切にしている。
まずは自らVUIや顔認証の技術などに触れてみてそこから手を動かして作ってみる。
このプロセスによる体験を重視しているとお話しいただきました。

Cover Image

まとめ

第一回目となるBonfire Nextの開催でしたが、「多様化するインターフェースの活用」をテーマにお話しいただきました。
様々な会社の形態や職種の4人の方々のお話を聞いて、新規領域の中でもあらゆる活用の仕方があることを知りました。
そして新規領域のサービスや製品だからこそPoCを重視しており、登壇者の方々は周囲を引き込む、周囲に納得してもらうことに長けている印象でした。
今までもこれからもあらゆる技術がアップデートされ、それに伴いインターフェースは多様化されていくのだと思います。
これらのインターフェースを活用するには、最新の技術を知ること、そしてその技術がどのように使われているかを知ることが大事なのかなと感じました。

次回以降のBonfireイベントはconnpassで告知していきます。
ぜひ上記リンクからメンバーになって次回以降のイベントに参加してみてください!

photo credit : Kanki Suzuki, Risa Hiyama

Yahoo! JAPANでは情報技術を駆使して人々や社会の課題を一緒に解決していける方を募集しています。詳しくは採用情報をご覧ください。

  • このエントリーをはてなブックマークに追加