Google Pixel 9a を「AIスマホ」として試す。AIでできること・上位モデルとの差

ガジェット スマートフォン
Ittousai

Tech Journalist. Editor at large @TechnoEdgeJP テクノエッジ主筆 / ファウンダー / 火元

特集

Google のスマートフォン Pixel 9a を「AIスマホ」として試してみました。

Pixel a シリーズは手に取りやすいミッドレンジの価格帯ながら、上位機種と共通の部分も多く、高いコストパフォーマンスで毎年人気のモデル。

各社がスマートフォンのAI機能を売りにするいま、AIアシスタント Geminiなど自社開発AIで抜きん出る Google は、Pixel 9a も「Googleの最新AIスマホ」とアピールしています。

一方で、たとえばカメラ機能ならば「望遠カメラ非搭載」など上位機種との差が分かりやすい(部分もある)のに対して、AIについてはスマホの機能全般に様々なかたちで導入されているため、Pixel 9a より約5万円高い無印 Pixel 9や、約8万円高いPixel 9 Proとどう違うのか違わないのか、微妙に分かりづらい状態です。

というわけで、Googleが「AIスマホ」「Google AI」として宣伝する主な機能を Pixel 9a で試してみます。

Google Pixel 9a の基本。Tensor G4プロセッサは9シリーズ共通、メモリは8GB

AI機能の前に、Pixel 9aの基本について少し。上位モデル Pixel 9 / Pixel 9 Pro との違いは外装の素材やカメラの構成・センサなど多々ありますが、基本の処理性能としては「Tensor G4 プロセッサは上位と共通」「RAMが比較的少ない8GB。無印Pixel 9は12GB、Proは16GB」がもっとも大きなポイントです。

GoogleのマルチモーダルAIモデル Gemini はクラウドで動く大型からローカルで動く超小型まで同じ基盤から作られており、Pixelスマートフォンも前世代のPixel 8シリーズから、超小型のGemini Nanoを実験的に導入していました。


スマホのオンデバイスで動くGemini Nano については、前世代では当初12GB RAM搭載の Pixel 8 Proのみ対応、8GB RAM搭載の 無印 Pixel 8 (やPixel 8a)については「ハードウェア上の理由で非対応」としていたところ、のちに改めて無印8や8aでも限定的ながらGemini Nanoが導入できるようアップデート提供していました。

Apple製品がAI機能Apple Intelligence対応のためベースモデルのRAM量を増やしてきたことが示すように、AI機能のうちでもモデルがメモリに常駐して処理するタイプのタスクでは、RAM量がローカルAIでできることや使い勝手を左右することになります。

実際にPixel 9シリーズでも、無印9や9 ProがGemini Nano XS (eXtra Small)を搭載するのに対して、9aではさらに小さなGemini Nano XXSであることが分かっています。このため、一部のAI機能については上位モデルのみ対応、Pixel 9aは非対応になります。

「AI機能」って結局なに?「Pixelガイド」から

RAMの量とAIモデルのサイズは一旦置いておいて、「AIスマホ」とは結局なんなのか。AI、人工知能は特に厳密な用語としての定義もない便利な言葉で、数十年にわたってその時代の最新技術が「AI」と呼ばれてきました。今となってはとてもAIの範疇に入らないシンプルなロジックでも「機械が判断して変化する、すなわち人工知能」とバズワード的に使われています。

ここ数年の急激なAIブームも、深層学習など新たな手法で従来的なAI処理の性能が向上したこと、GPTシリーズなどの大規模言語モデル(LLM)が発達し「人間のような」会話ができるようになり、外部リソースへのアクセスやエージェント的機能を通じて汎用のインターフェースになる可能性が示されたこと、画像・動画・音声生成モデルの発展など様々な背景があり、技術的な基盤の異なるものも一括りに「AI」と呼ばれている状況です。

「AIスマホ」もこれを反映して、いわゆる生成AIとそうでないもの、スマホで処理するものとクラウドで処理するものなど、技術的な基盤が異なるものもまとめて、様々な「AI機能」が使えるスマホといった意味の言葉です。つまり、スマホのハードウェア差がそのまま「AI機能」すべてを左右するわけではありません

Googleが売りにするPixelのAI機能は多岐にわたりますが、Pixelスマホの「Pixelガイド」アプリでは、Pixel 9シリーズの「Google AIの新機能」として以下を挙げています(2025年4月時点。更新や機種で変わる)。

  • Gemini Live
    AIアシスタント Geminiとリアルタイムに自然な音声会話。トピックについて質問する、練習相手になってもらう、画像やテキストを見せて訊くなど。
    更新でカメラを有効にして、いま見ているものをリアルタイムで話題にして、特定や分析を頼めるようになった

  • Geminiの画面について質問
    電源ボタン長押し等で起動するAIアシスタントGeminiが、スマホの画面に表示された内容に応じて質問に回答、候補の表示など

  • 『Pixel スタジオ』アプリ
    画像生成。更新で人物を含められるようになった

  • 『レコーダー』アプリの「クリアな音声」オプション
    モノラル録音になるかわり、背景ノイズを低減できる機能

  • カメラの『一緒に写る』機能
    二度に分けて撮影して合成することで、カメラマンも集合写真に写れる。単に同じ人物を合成することもできる。
    二枚目の撮影時には一枚目に写った人物の位置が表示されて位置を合わせやすいなど優れたUIと、奥行き等を考慮した自然な合成が利点。

  • Googleフォトの編集マジック『イマジネーション』
    Googleフォトの画像生成編集機能。タップで被写体や部分を選び、消去や移動、拡大縮小など。消した部分や動かした空白を画像生成で埋める。
    現時点でPixel 9シリーズだけの「イマジネーション」(Reimagine)は、消去のかわりにテキストプロンプトで指示して埋める機能。道路を川にする、ビルを巨大ロボットに、背景を入れ替えるetc

  • Googleフォトの編集マジック『オートフレーム』
    こちらも画像生成を使った写真編集機能。空や背景を描き足して被写体を中央にするなど、構図を変えられる

  • Googleフォトの『ベストテイク』
    ベストな顔・表情を前後の写真から選んで交換する。目を閉じていたり、微妙な表情を前後の写真から補完して合成

結論から言うと、これらの機能は全部 Pixel 9a でも遜色なく利用できます

Geminiの目玉機能を9aと9 Proで試す。Gemini Live withカメラの場合

GoogleがGemini のブランドで展開する機能のうち、おそらくもっとも先進的で目を引くのは、リアルタイムにAIアシスタントのGemini と音声で会話できる Gemini Live。

リリースから数年が経つ ChatGPT のようにチャットボットと会話できる機能ですが、Geminiが話し終わるまで待たずに割り込んだり、言い間違いを訂正してもそのまま「自然に」会話が続けられることが話題になりました。機能としては他のAndroidスマホでも、iPhoneのGeminiアプリでも利用できます。(ChatGPTでは「高度な音声モード」)

Pixel 9シリーズとSamsung Galaxy S25の Gemini Liveではさらに、カメラをGeminiの眼にして、いま見えているものについてリアルタイムで会話ができます。写真を撮ってアップロードしてコンテキストに加えて、プロンプトを打って、といった手間なく、カメラを構えて動きながら「これは何?」「その下にはなんて書いてある?」「どういう意味?」といった会話ができる、これぞAIの本領発揮という機能です。

このGemini Liveのカメラを使ったリアルタイム会話機能を「RAMが少なく上位モデルより限定されたGemini Nano」搭載のPixel 9a と、二倍の16GB RAMを搭載した Pixel 9 Pro で並べて試してみるとどうなるか。

カメラでモノを見せて質問、回答についてさらに質問を試した範囲では、Pixel 9 Pro でも Pixel 9a でも体感できる差はなし。内容についても同等の会話ができ、9aが特に愚かだったり回答が遅いこともありません。

Pixel 9 Pro とPixel 9aでGemini Liveを起動し、お互いに議論するようにテーマを与えても、9 Proが特に賢く相手を説得できたり流暢だったりもせず、いかにもAIアシスタントという当たり障りのない「議論」 を永遠に繰り返します。(一定のターンをすぎると、お互いにまったく同じことを繰り返すように収束する。会話が堂々めぐりであることを自覚する機能はない)。

GeminiブランドとGemini Nanoモデル

搭載する「Gemini」の性能が違うはずなのに使用感が変わらないのは、結局のところGemini Live はクラウドに依存しているため。そもそもオフラインでは利用できず、通信が途絶えた途端に会話が終了します。

つまり「Geminiと名がつく数々の機能と、ローカルAIのGemini Nanoモデルはイコールではない。後者が使われるのはごく一部」。

「GoogleはさまざまなAI機能やAIアシスタントをGeminiブランドで展開している」ことと、「Pixel 9a は内蔵の Gemini Nanoモデルが超超小型の簡易版で、上位モデルと比較して性能は限定的」は事実であっても、「Pixel 9a はGeminiなんとか機能の体験が上位のPixel 9シリーズより劣る」とは限らない、むしろ大半の機能でほとんど差がない、ということ。

Pixel 9シリーズ限定の機能は、このほか Googleフォトの生成AI編集機能「編集マジック」のうち「イマジネーション」(指定範囲をテキストプロンプトで指示した内容に置き換え、全体を馴染ませる)など多々ありますが、多くはGoogle がマーケティング的に最新モデル Pixel 9シリーズを差別化するために限定しているといったほうが近く、Pixel 9a はその意味で「もっとも低価格で Googleの最新機種限定特典が利用できる」価値があるともいえます。

(蛇足気味の補足。一般論として、クラウド側で大半の処理が完結する機能であっても、ローカル側の処理性能で体験が変わる場合、非対応になる場合はあります。クラウドに送信する前にローカルで様々な前処理を施す場合など。たとえば音声からテキストの書き起こしをクラウド処理するにしても、ローカル側のマイクやノイズ低減処理で結果は変わります。

しかし Pixel 9a と 9 Proを並べて Gemini Live や Googleフォト「イマジネーション」を試した範囲では、そもそも生成AI機能は同じ端末でも試行ごとに結果が異なることもあり、回答の質も生成画像の質も体感として差はありませんでした。ローカルの前処理で差が出る処理であったとしても、どちらもプロセッサは同じTensor G4を乗せているため結局は変わらない可能性もあります)

Pixel 9a では使えない上位Pixel 9シリーズ限定AI機能

ここまで「Pixel 9a でも Pixel 9 Pro でも、看板の Google AI 機能は大半が変わらない」と書いてきましたが、それでも一部には、内蔵のGemini Nano モデルに依存するため Pixel 9a では使えない機能もあります。

主なものを挙げれば、

  • 『Pixelスクリーンショット』アプリ
    スマホに撮りためたスクリーンショットをAIが分析。写っている内容についてアイドル時間に分析してデータベース化。あとから言葉で探したり、そこからアクションの提案を受けられる。

  • 電話アプリの「通話メモ」
    電話の通話内容をテキストで書き起こして、内容の要約を保存する機能

どちらもローカルの Gemini Nano が分析する機能のため。

Pixel スクリーンショットは最近いつの間にか日本語でも使えるようになりましたが(2025年4月)、「通話メモ」については今のところ米国で英語設定にした場合のみ利用可能とされています。

「通話メモ」は補助記憶装置としてのスマホにふさわしい実用的機能ですが、「AIスマホ」の可能性として面白いのは「Pixelスクリーンショット」アプリ。

スクリーンショットごとに、被写体や場面、写った文字などをGeminiが認識した結果がメタデータ的に付与されており、あとからテキストで、あるいはGeminiを通じて内容にアクセスできる仕組みです。

写真ライブラリ内の自動OCR (写った文字を検索)は他社のスマホでも以前からあり、Googleフォトでも文字認識に加えて被写体や状況(夜景等)を検索する機能は昔から使えます。

Pixelスクリーンショットがどう違うのかといえば、たとえば「巨大なロボットが夜のビル街に立っている」「巨大なロボットは手に大きな武器を構えている」「巨大なロボットの足元にいる人々」のように、より踏み込んだ分析をテキストで持っていること。スクリーンショットを撮ったアプリもアイコンで分かりやすく分類されています。

さらに個別のスクリーンショットを開くと、内容に応じて他のアプリで共有やアクションにつなげるなど、提案がポップアップするのも賢い点。

アプリやウェブサイトの画面、メッセージなどを「あとで何々しよう」とメモ的にスクショすることは多く、とりあえず撮っておけば後から見つけやすく、提案からアクションにつなげられるのはまあ便利そうではあります。

とはいえ、いまのところスクリーンショットしかここまで細かく分析・データベース化はしてくれないため、まずはユーザーのほうが何かとスクショを撮る習慣をつけないと活用しづらいのも事実。

マイクロソフトはWindows 11で、一定間隔で画面写真を撮影しつづけ、後から内容をAIに探させてアプリやファイルに戻れる「Recall」機能を導入しましたが、いずれはスマホでも、何らかの落としどころやユーザーの不安対策を見つけて、オプトインで導入してくれれば、意識して撮影したスクショのみ探せるよりは便利になるかもしれません。

ユーザーの見たもの聞いたものを代わりに記憶してアシストしてくれる意味で、将来的なAIアシスタントやエージェントの可能性を見せるアプリではありますが、既存のGoogleフォトでも写真内のテキストや被写体である程度探すことはできることもあり、現時点でただちに便利で手放せない機能でもない印象です。

(蛇足ながら、Pixel 9 Proであっても、Pixelスクリーンショットの画像分析は電源に接続中、他のタスクが実行されていないアイドル時間に段階的に処理する仕組み。撮った途端に分析してくれるわけではありません。

結局はアイドル時間に処理するならユーザーの体感としては変わらず、またスクリーンショットが増えてゆくペースでしか新たな処理は発生しないなら、仮に二倍の時間がかかっても使わせてくれて良さそうなものですが、ローカルで画像の分析を回すこと自体に対応していない、あるいは今後の更新の途中で脱落するよりは最初から非対応にしているのかもしれません)。

まとめ。「最新Pixel限定特典」が最安で使える価値。多くの人に勧められる「AIスマホ」

以上、Pixel 9a と Pixel 9 Pro を「Google AI」機能について見てきました。Pixel 9a を推すポイントをまとめれば、

・Pixel 9a はシリーズでもっとも安価ながら、Googleが全力で推すAI機能の大半が上位機種と同等に利用できる

・上位モデルよりRAMが少なく、内蔵のGemini Nanoモデルが簡易版なのは事実。しかしローカルのGemini Nanoに依存する機能は、現時点では非常に限定的

・プロセッサのTensor G4はじめ上位と共通の仕様も多く、バッテリー駆動時間など上位よりも優れる点も

・何より、Googleが売りにする「Pixel 9シリーズ限定機能」は差別化のための限定が多く、Pixel 9aはもっとも安価にAI機能含め最新Pixelが活用できる点で費用対効果が高い

逆に Pixel 9 や Pixel 9 Pro、Pixel 9 Fold が必要な場合を「AI機能」に限定して考えるならば、

・Pixelスクリーンショットなど、ローカルのAIモデルに依存する機能の一部は 9a では使えない。

Pixelスクリーンショットが日本で使えるようになったのはごく最近、「通話メモ」はPixel 9の発売から8か月が経っても日本・日本語で使えないなど、現時点で直ちに日常的な使い勝手に大きな影響を与える差ではないが、実験的なものも含め、最先端のAI機能をいち早く体験したいことが目的ならば、フルセットで使えるPixel 9やProが必要。


将来的にはローカルのAIモデルも高度化して、日常的なスマートフォンの用途でも便利に活躍することが予想できますが、いまのところは限定的。

「AIスマホ」も実際はクラウド依存が多く、Pixel 9シリーズ限定機能も最新機種の差別化の側面が多いため、Pixel 9a は仕様的にも価格性能比が高いだけでなく、「Google都合」でも優遇されている点が高い価値になっています。

蛇足。小さめのサイズ感もあり、最近のスマホにしては相対的にベゼルが太いのが新鮮。大画面・狭額縁のスマホを主に使っていると、「画面がズームアウトするUI」に割り込まれたような、漠然とした不安感?があります。

《Ittousai》

Amazon売れ筋ランキング

Ittousai

Tech Journalist. Editor at large @TechnoEdgeJP テクノエッジ主筆 / ファウンダー / 火元

特集

BECOME A MEMBER

『テクノエッジ アルファ』会員募集中

最新テック・ガジェット情報コミュニティ『テクノエッジ アルファ』を開設しました。会員専用Discrodサーバ参加権やイベント招待、会員限定コンテンツなど特典多数です。