とてつもないスピードで進化するAI。
ここ最近では、ユーザーの意図を理解し、自律的に動き、まるで秘書のように寄り添い様々なタスクを支援するエージェントAIの進化に多くのビッグテックが力を入れています。

余談ですが、最近、長年愛用していたiPhoneから、GoogleのPixel 10 Pro Foldに乗り換えました。Geminiが持つ可能性にワクワクしたからです。

(…自慢?)
さて、そんなGoogle、Microsoftなどをはじめとするビッグテック企業は、急速にエッジコンピューティングという技術へ注力をし始めています。
エッジコンピューティングとは?
「エッジコンピューティング(Edge Computing)」とは、データをクラウドに送らず、端末上で処理する技術のこと。
AI処理といえば、NVIDIA製などのGPUを大量に積んだデータセンターで行うのクラウド処理が主流です。
しかし、Googleの「Pixel」シリーズが、AI処理に特化した独自チップ「Google Tensor」の搭載や、MicrosftのCopilot+PCのように、CPU(計算)、GPU(描画)に加え、第3の脳である「NPU(AI専用プロセッサ)」の搭載を標準化する動きが強まっています。
なぜNPUが必要なのか?
NPUとは「Neural Processing Unit」の略で、AI処理に特化したプロセッサーのこと。
人間の脳神経細胞を模したニューラルネットワークの計算を、CPUやGPUよりも高速かつ低消費電力で実行できるよう最適化されています。
エッジコンピューティングへの揺り戻しの大きな理由の一つが、この低消費電力という点です。
クラウドでの処理は、稼働時にとてつもない電力を消費し、また、それを冷却するために莫大な量の水が消費されています。
ある試算では、AIと短い会話をするだけで、500mlペットボトル1本分の水が消費されているとも。
企業にとってもコスト面から無視できない問題であるのはもちろん、環境や社会倫理の点からも大きな課題と認識されていました。
そもそも、人々がAIを利用する上で、クラウド上で莫大な電力を消費しなければ出せないような回答を求める質問は限られています。
そういった簡単な質問に対する処理はデバイス上で行い、複雑で規模の大きい計算が必要なものはクラウド上で処理する。
そうやって効率を上げていこう、というのがエッジコンピューティングの土台にある考え方です。
エッジコンピューティングのメリット
エッジコンピューティングの大きなメリットの一つがプライバシーに関する問題です。
企業や個人にとって、「データをクラウドに送りたくない」という心理は大きな壁です。
しかし、オンデバイスAIなら、データは端末から一歩も外に出ません。
これにより、機密文書の要約や、プライベートな写真の整理を、AIに安心して任せることができます。
そして、この点が今後のエージェントAIの進化と普及をさらに推進していくだろうと考えられる点です。
「来週の旅行の計画を立てて」と言えば、勝手にカレンダーを確認し、フライトを予約し、レストランを押さえてくれる。
そんなかゆいところまで手の届くAIエージェントとなるためには、AIがユーザーの「全メール履歴」「全通話履歴」「位置情報履歴」「クレカ情報」など、極めて個人的な情報にアクセスする必要があります。
これらをクラウド上で処理することは、ユーザーにとって気持ちの良いものでないですし、企業側もリスクやコンプライアンスの点から大きな障害となりえます。
ユーザーのデバイス上でこれらを完結することができるためにも、エッジコンピューティングのさらなる進化が求められているというわけです。
ハードウェアへの回帰
今の若い人たちにはあまりピンと来ないかもしれませんが、クラウドが急速に普及したのは、まだこの10年ほどの話で、それ以前、データの保存や処理はデバイス上で行うのが当たり前でした。
なので、デバイスが壊れたときは、そこに保存されているデータもお亡くなりになるため、その管理には非常に気を付けていたものです。
クラウドの進化と普及によって、そういった問題は少なくなりました。
しかし、今後は、AIエージェントの普及とともにハードウェアの重要性が改めて強まっていくでしょう。
そうすると、今度は、デバイス上に自分の大切な友人、有能な秘書が「住んでいる」ような感覚になるのかもしれませんね。
つまり、デバイスをなくしたり、壊してしまったら、その大切な友人や秘書もお亡くなりなってしまう。
今後は、そういったデバイス内AIに対する死亡保険サービスが出てきたり、人権などの議論が持ち上がってくる。
そんな未来が来るかもしれません。



