
今年の世界開発者会議(WWDC)は盛大なものでした。iOS 13のダークモードから、新しくなったiPadOS、生まれ変わったMac Proの発表など、Appleが毎年恒例の1週間にわたるソフトウェア関連の発表の祭典は、近年のAppleの歴史の中で最も期待され、刺激的なイベントの一つだったと言えるでしょう。
アクセシビリティも、このイベントの規模拡大に大きく貢献しました。Appleは毎年、アクセシビリティへの配慮を、プレビューするソフトウェアだけでなく、サンノゼ・コンベンションセンター内外で行われるセッション、ラボ、その他の交流会にも徹底して取り入れています。
「今年本当に素晴らしかったことの一つは、アクセシビリティチームが全面的に全力で取り組んでくれたことです」と、Appleのグローバルアクセシビリティポリシー&イニシアティブ担当ディレクター、サラ・ヘリンガー氏は基調講演後に語った。「それぞれのオペレーティングシステムに、そして様々なユースケースに対応する機能が備わっています。」
カンファレンス中、間違いなく最も大きな話題を集めた発表の一つが音声コントロールでした。macOS CatalinaとiOS 13で利用可能な音声コントロールは、MacやiOSデバイスを音声だけで操作する方法です。AppleのアクセシビリティエンジニアリンググループとSiriグループの共同開発による音声コントロールは、特定の身体運動障害を持つユーザーがデバイスにアクセスする方法に革命をもたらすことを目指しています。これは、数十年前に『宇宙家族ジェットソン』や『スタートレック』といったSFテレビの人気作品が夢見た、アンビエントで音声ファーストなコンピューティングの実現と言えるでしょう。話しかけると、デバイスが反応します。
そして、Apple 社はこれに大興奮している。
「目から涙があふれてきた」
WWDCでのVoice Controlへの期待は、まさに手に取るように伝わってきました。プロジェクト関係者と話をした際に感じた、抑えきれない誇りと喜びは、これまで見たことのないものでした。人々の生活を革新し、豊かにするという同社の理念は、あらゆるメディアイベントで必ずと言っていいほど語られるものです。しかし、ヘリンガー氏のようなエンジニアや幹部がVoice Controlについて熱く語るのを聞くと、それはまた別の感動でした。
このことを最も的確に表しているのは、クレイグ・フェデリギ氏がジョン・グルーバー氏のポッドキャスト「The Talk Show」のライブエピソードで語った逸話です。音声コントロールに関するコーナーで、フェデリギ氏は、ある会議中にAppleのアクセシビリティチームのメンバーが行ったこの機能の社内デモについて語りました。デモがあまりにもうまくいったため、舞台裏で泣きそうになったほどだったそうです。
「これは、実際に使われているのを見ると驚くだけでなく、多くの人々にとってどれほどの意味を持つのかを実感できる、そんな技術の一つです」とフェデリギ氏はグルーバー氏に語った。「アクセシビリティチームやSiriチームのメンバー、そしてこの取り組みを成し遂げたすべての人々の情熱を思うと、本当に感慨深いです。私たちが手がける仕事の中でも、最も感動的な仕事の一つです。」
フェデリギ氏の説明は、WWDCをめぐる世論と完全に一致しています。私が話を聞いた誰もが――同僚記者、参加者、そしてApple社員――音声コントロールに同じレベルの熱意を示しました。皆が口を揃えて「本当に素晴らしい」と口を揃えていました。音声コントロールのエンジニアリングと開発プロセスは、クパチーノの従業員にとってかなりの重労働だったと聞いています。冒頭で述べたように、この機能を完成させるには、部門横断的な大規模な共同作業が必要でした。
より広い視点で見ると、音声コントロールが実現したことに対する感動は、テクノロジーそのものだけでなく、その公開にも表れています。
Appleが貴重なスライドスペースとステージのかなりの時間を割いて音声コントロールを宣伝したことは、非常に意義深い。iOS 13でアクセシビリティメニューを設定のトップページに移動させた決定と同様に、その象徴性は重要だ。Appleはここ数年、様々なイベントでアクセシビリティについて時間をかけて語ってきたが、2019年に再びそうすることは、同社が障がい者コミュニティを深く気にかけていることを改めて強く印象付けるものだ。毎年夏にAppleの世界最大のイベントであるこの場で、Appleが他の目玉機能と並んでアクセシビリティを強調したことは、非常に意義深いことだ。
「私の成功は、自分が利用できるテクノロジーによって完全に決まります」と、自転車事故で四肢麻痺となり、WWDCで公開されたAppleの音声コントロールビデオに出演したイアン・マッケイ氏は語った。「WWDCのような大規模なイベントでAppleがアクセシビリティの重要性を強調するほど、アクセシビリティの重要性を認識し、Appleが私に自立をもたらすこれらのテクノロジーの発展と強化に関心を持ち、尽力していることを改めて実感しています。」
音声制御の簡単な歴史
今日私たちが知っている音声コントロール機能は、Appleの歴史にその系譜を刻んでいます。2009年に発売されたiPhone 3GS 1 の目玉機能の一つが音声コントロールでした。2
違いは甚大です。10年前に出荷されたバージョンは初歩的な機能しかなく、音声も初歩的なものでした。当時、Appleは音声コントロールがiPhone 3GSを「ハンズフリーで操作」できると宣伝し、フィル・シラー氏はプレスリリースで「音声コントロールの自由」を強調しました。機能は必要最低限で、電話をかけたり、音楽の再生をコントロールしたり、再生中の曲を尋ねたりするだけでした。音声コンピューティングの歴史から見れば、これは先史時代の技術でした。3もちろん、音声コントロールは2009年6月にiPhone 3GSで導入され、Siriより2年以上も先行していました。Siriが初めて登場したのは2011年10月のiPhone 4Sでした。
対照的に、2019年の音声コントロールはスーパーコンピューターです。電話をかけたり、音楽の再生をコントロールしたりするのは、今や当たり前のことです。この音声コントロールを使えば、文字通りコンピューターを起動して、写真のズームイン・アウト、スクロール、コンテンツのドラッグ&ドロップ、地図へのピンの配置、絵文字の使用、さらには新しい語彙の学習など、様々な操作を指示できます。
ティム・クックは新興市場や新技術について語る際、それらは「まだ初期段階にある」とよく言います。音声ファースト・コンピューティングもまさにその範疇に入ります。しかし、10年前と比較すると、その進歩は驚くほど明白です。macOS CatalinaとiOS 13に搭載される音声コントロールは、先代から何光年も進歩しており、はるかに洗練されているため、音声ファーストの今後の展開がどうなるのか、ワクワクします。
音声制御のターゲットユーザー
Apple が Voice Control を作成した公式の理由は、上半身に特定の障害を持つ人々がデバイスにアクセスするための新たなツールを提供することです。
音声コントロールは、6年前のiOS 7で初めて導入されて以来、長年親しまれてきたスイッチコントロール機能と多くの概念的な類似点を持っています。どちらも、マウスやタッチスクリーンを物理的に操作できないユーザーが、従来の入力デバイスと同じ滑らかさでデバイスを操作できるようにします。しかし、両者は主にそれぞれのインタラクションモデルにおいて明確に区別されています。スイッチコントロールがUIの操作にスイッチのみを使用するのに対し、音声コントロールは音声のみを使用することで、操作性を高めています。
音声コントロールは、本来の用途以外にも、様々な分野で活用される可能性があります。RSI(脊髄損傷)の問題を抱える人にとって、音声で機器を操作することで、キーボードやポインティングデバイスの使用に伴う痛みや疲労を軽減できるため、魅力的に映るかもしれません。また、コンピューターに指示を出し、それに応じた反応を見せるという未来的な感覚を味わいたい人もいるかもしれません。いずれにせよ、アクセシビリティがより広く認知されるようになるのは良いことです。
マッケイ氏はインタビューでこう語ってくれました。「サラ・ヘリンガー氏の『利益を追求すれば、大衆にとってより良い製品が生まれる』という言葉がまさに的を射ていると思います。障害のある人もない人も、この新しい技術をどう活用していくのか、本当に楽しみです。」
音声制御の仕組み
音声コントロールの本質は、コンピューターに何をすべきかを指示すれば、コンピューターがそれを実行するという点です。
Appleは音声コントロールを「声だけでデバイスを完全にコントロールできる画期的な新機能」と説明しています。できることの可能性は事実上無限です。MacBook AirやiPad Proで実行できるほぼすべてのタスクは、音声コントロールで処理できる可能性が高いでしょう。
音声コントロールの機能と、どのように話しかけるかを理解するには、ある程度の学習が必要です。同様に、音声コントロールの使い方はコマンドラインとは全く異なります。構文は構造化されていますが、絶対的な正確さを求めるほど厳密ではありません。実際、音声コントロールは柔軟性が高く、高度なカスタマイズが可能なように設計されています(詳細は後述)。そしてもちろん、Appleエコシステムを象徴する機能として、音声コントロールの基本機能はiOSとmacOSで同じように動作します。
音声コントロールはシステム全体に統合されているため4 、コマンドを呼び出すために特定のアプリを開く必要はありません。たとえば、メールの作成を考えてみましょう。Safari でウェブを閲覧中に、突然誰かにメールを送信する必要があることを思い出したとします。iPad (または iMac や iPhone) で Safari が起動していれば、音声コントロールに「メールを開いて」と話しかけるとメールが起動します。そこから「新規メッセージをタップ/クリックして」と言うと、作成ウィンドウがポップアップ表示されます。メタデータフィールド (送信先、コピー数、件名) に対応するコマンドを入力し、本文フィールドでメッセージを作成します。入力が完了したら、「送信をタップして」と言うとメッセージが送信されます。
定説通り、私のテストでは「とにかく動作する」という結果が出ました。音声コントロールを起動するには、コンピューターに「ウェイクアップ」と指示します。このコマンドは、システムに準備を整え、入力の聞き取りを開始するよう指示します。音声コントロールの基本的な操作は、「開く」「タップ」「クリック」の3つのトリガーワードのいずれかです(もちろん、最後の2つは、現在使用しているオペレーティングシステムに適したものを使用してください)。「ダブルタップ」「スクロール」「スワイプ」といった他のコマンドも、状況に応じてよく使われる操作です。操作が完了したら、「スリープ」と言うと、コンピューターはマイクをオフにして、音声の聞き取りを停止します。
音声コントロールには、大声で叫ぶだけでなく、番号付きのグリッドシステムも含まれており、ユーザーは特定の名前がわからない場所で番号を呼び出すことができます。たとえばSafariでは、お気に入りビューでWebサイトのファビコンの横に小さな番号(脚注に似ています)を表示できます。お気に入りの1つ目にMacStoriesがあるとします。コンピューターに「番号1を開いて」と言うと、すぐにMacStoriesのホームページが表示されます。グリッドを有効にすると(オプション)、お気に入りの数がいくつであっても、それぞれに対応する番号が表示されます。「番号を表示」と言ってもグリッドを表示できます。グリッドはOS全体に浸透しており、共有シートからキーボード、マップまで、あらゆるものに関係しています。
グリッドシステムオプションは、音声コントロール設定の「連続オーバーレイ」というサブメニューにあります。Appleによると、この機能は音声コントロールとの「やり取りを高速化する」とのことです。グリッドシステムに加えて、何も表示しない、アイテム番号のみ(グリッドなし)、アイテム名のみを表示するという選択肢もあります。
タップ、スワイプ、クリックといった基本的な操作に加え、音声コントロールは長押し、ズームイン/ズームアウト、ドラッグ&ドロップといった高度なジェスチャーもサポートしています。つまり、音声コントロールユーザーは、3D TouchやHaptic Touchといったパワーユーザー向け機能や、Macの右クリックメニューのパワーと利便性を最大限に活用できるということです。切り取り、コピー、貼り付けといったテキスト編集機能や絵文字の選択もサポートされています。「ドラッグ」や
「[オブジェクト]を長押し」といった高度なコマンドも使用できます。
音声コントロールは、ユーザーが自分にぴったりのカスタマイズ体験を作れるように設定できます。iOSとMacでは、「設定」の「音声コントロール」を開くと、様々なオプションが表示されます。「時計を表示」などのコマンドを有効または無効にしたり、独自のコマンドを作成したりできます。多数のカテゴリがあり、テキスト選択からデバイス操作(iPadの回転など)、アクセシビリティ機能など、あらゆるコマンドが用意されています。音声コントロールは、バージョン1.0とは思えないほど奥深い機能を備えています。
音声コントロール設定で注目すべきセクションの一つは、Appleが「コマンドフィードバック」と呼んでいるものです。ここでは、音声コントロール使用中にサウンドを再生したり、ヒントを表示したりするオプションがあります。私のテストでは、後者2つを有効にすると快適でした。これらは音声コントロールが機能していることを示す便利な補助的な合図となるからです。ヒントは、操作に迷ったり、何を言えばいいのか分からなくなったりした時に特に役立ちます。これは、第2世代Apple Pencilのペアリングとバッテリーインジケーターを視覚的に彷彿とさせる、素晴らしいディテールです。唯一の不満は、ヒントのテキストがもっと大きく、コントラストが高ければよかったということです。5ちょっとした不満点です。
もう一つ注目すべきセクションは「語彙」です。+ボタンをタップすると、音声コントロールが認識できない単語やフレーズを学習させることができます。この機能は、業界特有の専門用語を頻繁に使用する場合に特に便利です。例えば編集者であれば、見出し(「hed」)、小見出し(「dek」)、リード(「lede」)、段落(「graf」)などのジャーナリズムでよく使われる略語を追加することで、原稿の編集や同僚との連携をより容易かつ効率的に行うことができます。
音声コントロールの設定をじっくりと見て、実際に使ってみてその機能の感触を掴むのも良いでしょう。前述の通り、音声コントロールは初期バージョンとしては驚くほど幅広く奥深い機能を備えています。今見ても、今後のバージョンアップが楽しみでなりません。
プライバシー関連で言えば、WWDCでAppleとブリーフィングを行った際、同社は音声コントロールがプライバシーに配慮して設計されていることを強く強調していました。音声通信はデバイス内で行われ、iCloudや他のサーバーに送信されることはありません。ただし、Appleは「音声のアクティビティとサンプルを共有する」という「音声コントロールの改善」トグルを提供しています。これはオプトイン方式で、デフォルトでは無効になっています。
音声制御の最前線
音声コントロールとは何か、どのように機能するかを説明することは、その力と可能性を伝える一つの方法です。しかし、実際に使ってみて、それが人々の生活にどのような影響を与えるかを実感するに勝るものはありません。イアン・マッケイ氏にとって、音声コントロールは期待に応えてくれる製品です。
「初めて音声コントロールについて聞いたとき、びっくりしました。まさに探していたものでした」と彼は語った。
実際に使ってみて、マッケイ氏は音声コントロールの信頼性を「驚くほど」高く評価し、音声コントロールが使用するSiriのディクテーションエンジンは「非常に正確で、私の意見では非常に直感的」だと述べています。彼は、音声コントロールがクロスプラットフォームで同じように動作することを高く評価しています。Siriのユニバーサルなディクテーションシステムを使うことで、「学習曲線が非常に短くなり、直感的なコマンドセットに集中して理解できるようになります」からです。この使い慣れた操作感が鍵だとマッケイ氏は言います。異なるデバイスを切り替えても、ドキュメントやその他のファイルをシームレスに操作できるからです。これはすべて、音声コントロールをどこでも同じディクテーションエンジンで操作できるという、一貫した操作性のおかげです。
Appleの「The Quadfather」ビデオに出演し、WWDC 2017のランチタイムトークも行ったソフトウェア開発者でアクセシビリティ推進者のトッド・スタベルフェルト氏は、音声コントロールについて慎重ながらも楽観的な見方を示している。「(音声コントロールが発表された時は)ソフトウェア開発者として考えました」と彼は語る。「開発、設計、コーディング、そして何よりもテストに費やした時間! (私は)とてもワクワクしていますが、妻から学んだように、『信頼はするが、検証もする』のです。」
スタベルフェルト氏は日常の音声操作にはDragon Naturally Speakingを使用していますが、iOS版の音声コントロール、特に電話やテキストメッセージ機能に期待を寄せています。「日中は電話、テキストメッセージ、ナビゲーションを頻繁に行うので、音声コントロールがあればこれらの作業が少し楽になり、疲労感も軽減されるはずです」と彼は言います。
しかし、他のソフトウェアと同様に、音声コントロールも改善の余地があるほど完璧ではない。マッケイ氏によると、騒がしく人混みの多い場所や、風が強くて騒音がひどい日などには、音声コントロールが時々不安定になるという。彼は、周囲の騒音はAppleの音声認識ソフトウェアだけでなく、あらゆる音声認識ソフトウェアにとって問題だとすぐに指摘する。「デバイスはユーザーの発話を聞き取らなければなりません。マイクは優秀ですが、周囲の騒音が多すぎると精度が低下する可能性があります」と彼は述べた。マッケイ氏が考える回避策は、音声コントロールがうまく機能しない場所ではスイッチコントロールを使うことだ。実際、彼は同じように機能する両方の技術が互いにうまく補完し合っていると考えている。
「(騒がしい環境は)音声コントロールとスイッチコントロールがいかにうまく連携して機能するかを示す好例です」と彼は述べた。「騒がしい場所にいるとき、あるいはよりプライベートなメッセージを送りたいとき、スイッチコントロールを使ってスマートフォンを操作できます。また、両方の技術を活用することで、デバイスの使用を大幅に高速化できます。スイッチコントロールを使う方が速い場合もあれば、音声コントロールを使う方が速い場合もあることに、ユーザーは気づくでしょう。」
スタベルフェルト氏もマッケイ氏と同様に、騒がしい環境はディクテーションソフトウェアを使用する際の「問題の一部」だと述べた。さらに、Appleが音声コントロールに対応した「素晴らしいヘッドセット」を開発すれば、音声コントロールの使い勝手は向上するだろうと付け加えた。6
音声制御と音声遅延を考慮する
音声コントロールが発表された時、メリットはさておき、私が一番心配していたのは、私自身、あるいは他の言語発達遅滞のある人が、それをうまく使いこなせるかどうかでした。この場合、成功の尺度はソフトウェアが非標準的な発話パターンを解読できるかどうかです。私の場合、それは吃音でした。
SiriやAmazonのAlexaといったデジタルアシスタントの台頭に伴い、この問題の重要性について何度も記事を書いたりツイートしたりしてきました。これらの製品、特に7 Voice Controlでは音声が主要なユーザーインターフェースとなっているため、アクセシビリティの存在意義は、私のような発話障害のあるユーザーへの配慮にあります。
発話障害も障害の一種です。問題の核心は、これらのAIシステムが通常の流暢さを前提として構築されていることです。人間が機械に他の人間の理解を教えようとしていることを考えると、これは十分に困難な課題です。したがって、吃音者の発話が作業を飛躍的に困難にし、事態をさらに悪化させるのは当然のことです。問題は、何らかの発話遅延を抱える人が決して少なくないという事実にあります。国立聴覚・コミュニケーション障害研究所によると、米国では約750万人が「発声に困難を抱えている」とのことです。私たちは、支援技術としての音声インターフェースの恩恵を受けるために、他の人と同じように音声インターフェースを体験する権利があります。
しかし、一部のユーザー、つまり発話障害のあるユーザーにとって、Siri、Alexa、そしてもちろんVoice Controlといった音声ファーストのシステムは、ユーザーが質問や指示をどもって伝えた際に確実に理解できないため、ほとんどアクセスできないと認識されてしまうという深刻な危険性をはらんでいます。無能さによる排除は、ユーザーとプラットフォーム所有者の双方にとって損失となる状況です。
これは残念で苛立たしいことです。なぜなら、音声技術の背後にある価値提案全体が失われることを意味するからです。生産性の向上はさておき、音声認識に問題があれば、使う動機はほとんどありません。だからこそ、テクノロジー企業にとってこれらの問題の解決は非常に重要なのです。私は長年Appleを間近で取材してきたので、Appleが私の主な関心事ですが、誤解のないように言っておきますが、これは業界全体のジレンマです。私のキッチンカウンター8に置かれたEcho Dotも、私のAppleデバイスのどれを使ってもSiriと同じように、私の言葉を理解するのに苦労しています。確かに、Amazon、Apple、Google、Microsoftといった巨額の資金を持つ大手企業はすべて、それぞれの力を尽くして、将来の音声駆動型技術を誰もが利用できるようにするための義務があります。
音声コントロールのテストは主にiPadOSパブリックベータ版を搭載した10.5インチiPad Proで行いました。その結果、音声コントロールは私の発音障害に(ほぼ)うまく対応してくれたと報告できて嬉しく思います。嬉しい驚きでした。
私にとって吃音は、物心ついた頃からずっと付きまとってきたものです。どんな状況でも、いずれは起こるものです。しかし、HomePodや音声コントロールといったものを使うようになってからは、自分の心の状態、呼吸、そして快適さに、より意識的に取り組むようになりました。これらはすべて、私が吃音になりやすいかどうか(例えば、不安や緊張を感じている時など)に影響を与える要因であり、テクノロジーの使い方にも間違いなく影響を与えています。そのため、音声コントロールを試用している間は、常にゆっくりと、何を言うべきか、どのように表現すべきかを考えるように自分に言い聞かせてきました。
総合的に見て、音声コントロールはうまく機能しています。音声コントロールは私の言葉を100%正確に理解してくれるわけではありませんが、期待はできません。とはいえ、80~90%くらいの確率でうまく理解してくれます。Appleが水面下でディクテーション解析機能の改良に取り組んできた努力は実を結び、時とともにどんどん良くなってきています。
ヘリンガー氏はWWDCで、音声コントロールの開発において、Appleはディクテーションパーサーの改良に多大な労力を費やし、様々な音声の種類をより適切に処理できるようにしたと語ってくれました。もちろん、その精度は時間とともに向上していくはずです。
全体的に見て、進歩は非常に心強いです。どんな心理的なトリックを使っても、ソフトウェアは少なくともそれなりのパフォーマンスを発揮する必要があります。音声コントロールが私の理解力において期待を上回ったことは、あらゆる場所でAIが利用できるようになる、より明るい未来が待っているという希望を与えてくれます。
音声コントロールとAppleコミュニティ
WWDC基調講演中と講演後、私のTwitterフィードは音声コントロールへの称賛と畏敬の念で溢れていました。Appleコミュニティの多くの人々にこれほど共感されたことは、音声コントロールが今年の新機能の中でも傑作の一つであることの証です。
2017年にAppleに買収される前はWorkflowでマーケティング部門で働いていた、フリーライター兼ポッドキャスターのMatthew Cassinelli氏は、音声コントロールがショートカットと連携することに期待を寄せている。彼は、音声コントロールとショートカットアプリは「iOS 13とiPadOSでは自然な組み合わせのようだ」と考えており、音声でコマンドを呼び出す機能によって、これまでは不可能だった方法でOS(ひいてはショートカット)が拡張されると指摘している。彼は巧妙な使用例を紹介し、音声コントロールの語彙機能を利用してショートカットにカスタム名を作成し、音声で起動できると述べている。ショートカットアプリはタッチベースだが、Cassinelli氏は音声コントロールのテストで、既存のショートカットはどれも音声起動に関しては「すぐに使える状態」になっているはずだと述べている。
カシネッリ氏は、ショートカットにとどまらず、音声制御技術全体に対する自身の思いを熱く語っています。彼は、音声制御は音声技術における「小さな飛躍」を象徴する技術だと感じています。それは、音声だけでコンピューターをほぼ自由に操作できるという点にあります。音声制御がもたらす自律性は刺激的です。自律性とは独立性を意味するからです。「Appleデバイスを持っている人は誰でも、デバイスを見て何かを言うだけで、本当に操作してくれるようになりました」と彼は言います。
カシネッリ氏は、音声コントロールが誰にとっても煩わしい点を軽減し、その幅広い魅力にも触れました。彼は、音声コントロールは多くの機能を単独で実行できるため、「Hey Siri」を何度も使う際の「繰り返し感」を大幅に軽減し、Appleの顔認識APIが意図しない誤入力を防いでくれると指摘しています。9
「一部の人は、アクセシビリティ用途を超えて、音声コントロールを主体とした体験を求めるようになるでしょう。生産性向上のためであれ、予防的な人間工学的理由からであれ、それは変わりません」と彼は述べた。「制作現場でiPadを使っていて、画面を真にハンズフリーで使えるようなユースケースも考えられます。」
iMoreでの活動や、急成長中のYouTubeチャンネル「Vector」で知られるレネ・リッチー氏は、WWDCで音声コントロールに「圧倒された」と語った。全体像を見ると、Appleは多様なインターフェースを提供しようとしていると彼は考えている。タッチファーストは王者かもしれないが、音声コントロールの登場は、それが唯一の真の入力方法ではないことをさらに証明している。リッチー氏は、Appleは「すべての顧客が、利用可能なあらゆる入力方法を使って、あらゆるデバイスを使えるようにしたい」と考えていると見ている。
「他のプラットフォームやベンダーからも同様の機能が提供されています。しかし、Appleのすべてのデバイスで、しかも同時に、これほど思慮深い方法で(音声コントロールが)利用できるというのは、本当に素晴らしいことです」と彼は語った。
カシネッリ氏と同様に、リッチー氏も音声コントロールのクールさと利便性から、自身の仕事に役立つと考えています。「音声コントロールを使うことは想像できます。『ブレードランナー』のような派手なSF感やアクセシビリティの向上以外にも、音声コントロールが役立つ場面はたくさんあると思います」と彼は言います。
音声制御の明るい未来
2014年に初めて参加して以来、私が取材してきた6回のWWDCの中で、2019年は間違いなくこれまでで最大規模だったと感じました。期待が薄れたのは、iPadの大幅な刷新と新型Mac Proへの需要の高まりが大きな要因でした。噂はこれらの出来事を予言し、Apple評論家たちはそれが来ることを知っていたのです。
一方、音声コントロールはまさに驚きでした。確かに、最も心を揺さぶられた発表の一つでした。基調講演で最も大きな拍手が起こったのは、Appleの音声コントロール紹介ビデオが終わった直後でした。iPadOSのような機能はiPadのヘビーユーザーにとって大きな変革をもたらすでしょうが、クレイグ・フェデリギ氏がファイルアプリのUSBメモリ対応について激怒したという話は、皆さんには聞かなかったでしょう。
ステージ上で脚光を浴びるに値するほど重要な出来事でした。障がい者コミュニティやアクセシビリティ全体にとって、これは常に大きなメッセージです。その重要性はいくら強調してもし過ぎることはありません。あの巨大スクリーンにアクセシビリティアイコンが表示されることで、私たちのような疎外され、過小評価されてきたグループへの意識が格段に高まります。これは、アクセシビリティが重要であることを意味します。つまり、障がいのある人々も、MacやiPhoneで音声コントロールを使うなど、革新的で人生を変えるような方法でテクノロジーを活用しているということです。
アクセシビリティの観点から見ると、音声コントロールは明らかにショーの主役でした。アクセシビリティに関して言えば、Appleのマーケティングアプローチはメッセージングにおいて一貫しており、iOSのマイルストーンバージョンやiPhoneのようなハードウェアといった「大きな」ものを前面に出しています。彼らはあらゆる新しいイノベーションを歓迎し、それを顧客に届けることを心から楽しみにしています。しかし、今年、音声コントロールについて議論し、デモを行った時に感じたような感動は、これまで見たことがありません。確かにAppleのマーケティングではありましたが、雰囲気は大きく異なっていました。
音声コントロールはまだ初期段階であり、成長の余地はありますが、非常に有望なスタートを切っていることは間違いありません。今後、この技術を日々限界まで押し上げているイアン・マッケイ氏やトッド・スタベルフェルト氏のような人々からのフィードバックをAppleがどう受け止めるのか、注目しています。今のところ、現状の音声コントロールは多くの人にとってゲームチェンジャーになると言っても過言ではないでしょう。
- 3GSは、iOS(旧iPhone OS)に初めて個別のアクセシビリティ機能をもたらした点でも重要な役割を果たしました。VoiceOver、ズーム機能、白黒反転機能、モノラルオーディオの4つの機能がありました。↩︎
- Appleは製品名を再利用するのが好きです。最近販売が終了した12インチMacBookも参考にしてください。↩︎
- 音声コントロールは引き続きご利用いただけます!サイドボタンを長押しした際の機能を設定できます。オプションの一つに「音声コントロール」があります。設定は「設定」⇾「アクセシビリティ」⇾「サイドボタン」から行えます。↩︎
- Macでは、「システム環境設定」⇾「アクセシビリティ」⇾「ディスプレイ」からアクセスできます。iOSでは、「設定」⇾「アクセシビリティ」⇾「音声コントロール」からアクセスできます。↩︎
- コントラストといえば、SFシンボルは大成功です。↩︎
- Apple は 2016 年から、アクセシビリティに特化したアクセサリをオンラインと直営店で販売しています。↩︎
- Apple の場合、Siri は Siri にタイプするという形で代替 UI を提供しています。↩︎
- Echo Wall Clockとペアリングするために購入しました。料理をするときにタイマーを視覚的に確認できる便利な機能で、もちろん時計自体も時間を確認するのに便利です。↩︎
- Face ID搭載のiOSデバイスでは、顔を横に向けるとマイクがオフになります。誰かが部屋に入ってきても、会話が入力と誤認されることはありません。↩︎
- 言葉の2番目の意味で。↩︎