Apple と注目の新技術に関しては、業界の他の企業が現在注力しているものを同社がまだ出荷していないのであれば、遅れをとっているに違いない、という昔からの見方がある。
これは滅多に真実ではない。
Appleのビジネスは、いわゆる氷山の一角のようだ。私たちが目にするのは同社の事業のほんの一角に過ぎず、研究開発活動の大部分は水面下に潜んでいる。直近四半期の財務状況を見れば、R&Dに77億ドルを費やしており、これは全営業費用の半分以上を占めている。
このストーリーに登場する最新技術は、もちろん人工知能(AI)だ。チャットボットや画像生成ツールを早急に開発しなければ、この急成長中の新市場でどうやって競争できるというのだろうか?(VRヘッドセットがまだ出荷されていないことはさておき、同社が明らかに後れを取っていた最後の市場はVRヘッドセットだった。)
しかし、この特定のデマの場合いつもそうであるように、真実は、Apple が独自の方法で AI に取り組んでおり、市場を追いかけているわけではないということです。
学習を始めましょう
AppleのAIへの取り組みが時として見過ごされる理由の一つは、単に用語のせいだ。同社は「人工知能」についてはあまり語らないものの、「機械学習」(ML)については多くの時間を費やして議論しており、これはAppleの最新技術の多くにとって重要な基盤となっている。
機械学習は技術的には人工知能のサブセットに過ぎないかもしれませんが(この点についても異論はありますが)、少なくとも日常会話においては、この2つの用語はしばしば互換的に使用されます。ChatGPT、GoogleのBard、Microsoftの新しいBingチャットボットといったツールを支える大規模言語モデルは、機械学習技術を活用しており、DALL-EやStable Diffusionといった画像生成ツールも同様です。広義に言えば、これらはすべて、データを用いて学習し、改善していくアルゴリズムを伴う技術です。
Appleの機械学習への投資は明確です。2018年には、Googleの機械知能部門責任者であるジョン・ジャンナンドレア氏を機械学習・AI戦略担当シニアバイスプレジデントに迎え、ティム・クック氏直属の体制としました。また、Appleは数少ない一般向けウェブサイトを運営し、機械学習に関する研究成果を大量に公開するほか、博士課程フェローシップの支援、インターンの採用、研修制度の提供などにも積極的に取り組んでいます。さらに、オープンソースの機械学習プロジェクトにも貢献しており、例えばStable Diffusionソフトウェアを自社ハードウェア上で動作するように最適化しています。

イスラエル国防軍
機械学習の核心
Apple が ML に興味を持っていることは認めるかもしれないが、この投資で実際に何を生み出したのかを改めて問うことになるかもしれない。
たくさんあります。写真や動画から任意のテキストを選択できるLive Text機能や、写真ライブラリで「犬」という単語を検索して撮影した犬の写真をすべて表示できる機能、デバイスで再生される動画や音声に字幕を付けられるベータ版のLive Captions機能などの機能がお好きなら、Appleの機械学習研究の恩恵を受けていると言えるでしょう。
同社はまた、開発者が自社製品に機械学習を簡単に統合できるように CoreML と呼ばれるフレームワークを作成しました。さらに、2017 年の A11 Bionic に遡って Apple 製プロセッサはすべて、機械学習アルゴリズムの実行に最適化された専用の Neural Engine を搭載していることを思い出してください。最新のバージョンは 16 個のコアを備え、1 秒あたり驚異の 17 兆回の演算を実行でき、典型的な Apple 流儀で、機械学習モデルをクラウド サービスに頼らずにデバイス上でプライベートに実行できます。
Apple がプロセッサのかなりの部分を機械学習に投入するために資金を投じているのであれば、それは間違いなく言葉通りの行動をとっていることになる。

Live Captions ベータ版は、Apple の機械学習研究の一例です。
りんご
氷山の一角
Appleが機械学習の活用範囲を拡大する余地はもっとあるのだろうか?確かにある。ありきたりな答えは、Siriのしばしば精彩を欠いたパフォーマンスは、最近のチャットボットに見られるようなAIによって強化される可能性があるということだ。しかし、Microsoftの最近の進出による会話の一部が実に奇妙だったことを考えると、Appleがすぐに深層学習の世界に飛び込む可能性は低いだろう。
しかし、こうしたタイプのシステムがコンテキストを保持し、より流動的で人間的な方法で通信する能力には、たとえより限定的で制御された方法であっても、Apple の仮想アシスタントに取り入れられる可能性があり、また取り入れるべき利点がある。
同様に、Apple が Stable Diffusion で行ったのと同じ最適化を、非常に優れた Whisper 音声認識フレームワークでも行えば、Live Captions や Apple のディクテーション システムの音声テキスト変換機能も強化される可能性がある。
繰り返しになりますが、これらはAppleの競合他社が市場で展開しているような派手なものではありません。しかし、Appleも同じようにその機能を追求する必要はありません。例えば、GoogleとMicrosoftはAIを活用して検索分野でしのぎを削っていますが、Appleはこの分野ではあまり参入していません(もっとも、Appleが自社のデバイス内検索機能を向上させるために、その基盤技術の一部を活用することには、私はほとんど反対しません)。
結局のところ、Appleの機械学習の活用は、それ自体の存在意義というよりも、ユーザーの行動をいかに向上させるかという発想に突き動かされていると言えるでしょう。Appleの機械学習は、同じように人々の想像力を掻き立てるものではないかもしれませんが、最終的にはユーザーの生活により大きな影響を与える可能性があります。私の考えでは、Appleはこの競争において後れを取るどころか、むしろ先行していると言えるでしょう。