AppleがApple Intelligenceに関して追い上げに躍起になっていることは周知の事実です。OpenAIの成長、Googleの躍進、そして新規参入企業の登場により、Appleが出荷するAIモデルは最先端技術から大きく遅れをとっているように見えます。
Appleはより優れた、より現代的なモデルの構築に全力を注いでいるはずです。その取り組みについては、6月のWWDCで詳細が発表されるでしょう。しかし、Apple Intelligenceの展開で私が最も懸念しているのは、AppleがAIの熱狂に翻弄され、追いつくのに苦労しているということではなく、AppleのAI機能の実装が杜撰で拙速に感じられることです。
AppleがAI戦争に勝つために、最高の大規模言語モデルを手に入れる必要はない。最高峰クラスに君臨することも、リーダー企業と提携して必要なものを手に入れることも可能だ。しかし、Appleならではの部分、つまり、Appleに期待されるような、使い心地の良い機能を提供することで失敗してはならない。今、Appleはまさにそこに失敗している。
AppleのAI最悪への最大の挑戦
AIの最も厄介な点は、その多くがテキストベースの言語モデルの概念から生まれているため、AIインターフェースが空のテキストボックスに何かを入力しなければならないような状態になりがちだということです。こんな状況に戻ってしまったなんて信じられません。これは1984年以前の、Appleがコマンドラインインターフェースの核心に杭を打ってから40年も前の、根深い考え方です。
ユーザーに空のテキストボックスを与え、何を言えば望む結果が得られるかをユーザーが知っていると期待するのは、ユーザーインターフェースの大きな失敗です。空のテキストボックスは残酷です。(もちろん、抽象的なコマンドを音声で慎重に入力しなければならないのは良い選択肢ではありませんし、誤った出力をユーザーに追加のテキスト入力で修正させるのも良い選択肢ではありません。)
AI機能の未来は、ユーザーにプロセスを段階的に説明するためのシンプルな視覚ツールを提供する、優れたユーザーインターフェースデザインの上に構築される必要があります。Appleが真価を発揮できるのはまさにこの点であり、画像生成という分野では、Appleはまさにそれを実現したと報告できることを嬉しく思います。

Image Playground は疑わしい画像を作成する可能性がありますが、Apple はアプリの UI に関して正しい方向に進んでいます。
鋳造所
Image Playgroundが生成する画像は好きではありませんが、Appleの画像生成モデルの上に構築されたインターフェースについては、Appleの功績を称えなければなりません。Image Playgroundを使用したり、Genmojiを作成したりする際に、Appleは適切なインターフェースを提供します。そこには、候補のためのテキストボックスに加え、スクロールしてタップすることで様々な候補やスタイルを追加できるオプションも用意されています。テキストボックスに入力した内容は、フローティング要素としてトークン化されます。これは実際のインターフェースであり、非常にうまく機能します。ユーザーは、画像生成モデルが水面下でどのように動作しているかを知る必要はありません。ただ、私たちに写真を撮らせてくれるだけでいいのです。
そして残りは
画像生成インターフェースは、AppleのAIデザインにおける真に優れた成果と言えるでしょう。残念ながら、Apple Intelligenceの他のインターフェース要素はそれほどうまくいっていないようです。実のところ、macOS 15とiOS 18は、AppleのAI技術の遅れを露呈させたというよりは、AppleのデザイナーがAIのすべてに適切なインターフェースを作成するのにいかに短い時間しかかけられなかったかを露呈させたと言えるでしょう。
例えば、テキストの校正、書き直し、修正ができるWriting Toolsを例に挙げましょう。Macでは、AppleのAPIとアプリにスペルと文法をチェックする既存のシステムが搭載されており、フローティングパレットですべてのエラーをナビゲートできます。すべてのプラットフォームで、スペルミスや文法の誤りに下線を引いてタップすることで修正できます。
ライティングツールはこのシステムと並行して追加されたようです。Pixel EnvyのNick Heer氏が指摘するように、これは「ポップオーバーとして表示され、コンテキストメニューのようにもパネルのようにも機能しますが、どちらの機能もあまりうまく果たせていません」。
ライティングツールのインターフェースは使いにくく乱雑なだけでなく、Appleが長年にわたりOSに組み込んできた他のテキストツールとも統合されていません。Appleのエンジニアやデザイナーが、初年度にApple Intelligenceの機能をできるだけ多く実装しようと、いかに急いでいたかがよく分かります。
AIベースのライティングツールは、Appleのスペルと文法に対する全体的なアプローチに統合されるべきでしたが、代わりに独自のサイロに押し込められてしまいました。その結果、期待されるような多くの便利な機能が欠けています。例えば、ライティングツールに校正や書き直しを依頼すると、テキストが変更され、編集済みテキストと編集前のテキストを切り替えることができるだけです。
AI ベースのライティング ツールは、Apple のスペルと文法に対する全体的なアプローチに統合されるはずだったが、代わりに独自のサイロに押し込められてしまった。
これを、既存の AI 搭載校正アプリ Grammarly と比較してみましょう。Grammarly は (Mac 上の非常に機能限定された Grammarly Desktop バージョンでも) 選択したテキスト エディターでエラーに下線を引いたり、クリックまたはタップしたときに変更の提案を表示したり、変更を示すために取り消し線と色の強調表示を使用して段落全体の編集を表示したりします。
今ハンマーを叩けば後でハンマーを叩く
ハンマーを持っていると、どんな問題も釘に見える、という有名な格言があります。Appleが自社のOSにApple Intelligenceを搭載するための突発的な取り組みを開始した際、その目標はユーザーの問題を解決することではなく、AI機能をあらゆるところに組み込むことだったことは明らかです。これは、最新技術を採用するのではなく、問題を解決するというAppleの従来の哲学とは正反対であり、いくつかの顕著な形で同社に痛手をもたらしました。
最も顕著なのは、LLM(Language Management System)を使用してニュースの更新などの通知を要約していることです。多くのアプリ(ニュースアプリを含む)はあまりにも多くの通知を送信しており、スマートフォンがその煩わしさを軽減できればユーザーにとって非常に助かります。
Appleのソフトウェア担当者たちは、この問題について何年も議論してきたはずです。この問題へのアプローチにはいくつか方法があり、例えば、通知センターに複数の通知を一つにまとめた新しいインターフェース要素を構築するといった方法があります。各通知に優先度スコアを付ければ、Appleは表示する通知を厳選し、残りの通知は新しいインターフェースで展開できるようになります。
この問題を解決する方法は数多くあります。ニュースアプリだけでなく、セキュリティカメラやスマートロックといった他の種類のアプリにも当てはまります。しかし、その多くは複雑で、通知センターのインターフェースやAppleのプッシュ通知クラウドサービスの変更が必要になります。場合によっては、サードパーティ製アプリの開発者にも導入を迫られる可能性があります。つまり、時間がかかるということです。
Appleは慌てて、AI機能のリリースを急ぎすぎたため、通知センターに詮索好きな要約LLM(ローカライズ・ライフサイクル・マネージャ)を詰め込んだ。おそらくこの用途には不向きなツールだったのだろうが、Appleのエンジニアたちに与えられたのはハンマーだけだった。
Apple Intelligenceの次期機能の発表まで、あと数ヶ月です。Appleは追い上げのために無謀で無秩序な疾走を続けるのでしょうか、それとももう少し慎重になるのでしょうか?Apple Intelligenceの第一弾機能はまだ未完成で、磨きと再検討が急務です。Appleはそれを実現してくれるのでしょうか?それとも、担当者が次の機能追加に急ぎ足で取り組んでいるため、私たちは今後何年も未完成のWriting Toolsを我慢しなければならないのでしょうか?
Image Playgroundの実装は、AppleがAI構築における最大の強み、つまりユーザーの生活をより便利にすることに注力していることを依然として理解しているという、ある種の希望を与えてくれます。しかし、Apple Intelligenceのその他の部分を見ると、今後数年間は混乱が続くのではないかとかなり懸念しています。