AIがなぜイラレを使えないのかを知ると、人間の脳のすごさが分かる

今日、私の手元に「透過背景じゃないアイコン画像」が届きました。AIで出力したそうです。
……どうやって使えっていうねん。

いや、私もこうしてブログのアイキャッチ画像をAIで雑に作ってるわけで「AIを使いたい気持ち」はよく分かりますよ。
でもね、AIはアイコンのような画像を作るのが苦手だってことは知っておいてほしいんです。


AIはベクター画像を扱えない

AIは ベクター画像(イラレのパスやシンボル)を扱えません
何故なら、AIは真っ白な紙に線を描くのではなく、まずランダムなノイズをちりばめたキャンバスを用意し、そこからノイズを少しずつ取り除くことで絵を浮かび上がらせまるという仕組みで動いているからです。

  • AI画像生成の仕組み
     AIはノイズまみれの画像から徐々にノイズを取り除き、ラスター画像(ピクセル集合)を「収束」させていきます。
  • 特徴パターンの再構成
     学習済みの大量の画像から抽出した「特徴」を組み合わせ、見たことのない新しい画像を再構築します。

このときAIは、学習時に大量のラスター画像から抽出した「特徴パターン」を利用します。 つまり「保存された画像をそのまま貼り合わせる」のではなく、「似た特徴の組み合わせ」を計算的に再構成しています。

これは、AI画像生成の内部では、私たちが「○」を「丸い形」「ポジティブな意味」と考えたり、「×」を「バツ印」「否定の意味」と理解するような シンボル的な意味付け は考慮せずに絵を描いているということです。

adobe illustratorを使ったことがあるなら分かると思いますが、それではベクターのデザインは出来ません。 AIは「リアルっぽい絵」を出すのは得意ですが、意味を持ったパーツ単位で編集する力は持っていないのです。

ところで私はマクロメディア FreeHandユーザーでした。Adobe絶対に許さない。


人間のデザイナーの強み

一方、人間がIllustratorを使うと次のようなことが可能です。

  • 丸 → 柔らかさ、親しみやすさ
  • 直線 → 力強さ、安定感

こうした「意味を持ったシンボル」を最小限のパスで表現できます。
これは単なる描画スキルではなく、抽象化・意味理解の力そのものです。
AIにはまだ欠けている部分です。


「透過背景対応AI」は本物ではない

最近は「背景透過できるAI」もありますが、実際には以下の流れです。

  1. まずラスター画像を生成
  2. その後、ベクター変換ツールでトレース

そうです。イラレに大昔から搭載されている「ベクター変換ツール」を起動しているだけなんですよ。
生成AIもへったくれもありません。20年以上前の技術ですからね。

結果として…

  • パスが膨大になり編集困難
  • デザイン意図は反映されない
  • データが重くなる

結局「古のDTP時代の苦労」を現代に再現してるようなものです。
冒頭に少々愚痴を書きましたが、あれも結局、私が手作業で白背景をくりぬきました。
AI革命とはいったい…


脳とAIの圧倒的な違い

しかし、あれだけサーバーを並べて電気も好き放題使っているのに、未だAIは人間の能力を再現出来ないのでしょうか?
はい。少なくとも省エネ観点で言えば、その差は永遠に埋まらないほどです。

  • 現在のAI(LLM)は、人間の脳の 言語処理に使われているごく一部(約20%) を模倣しただけ
  • その「20%」を再現するために、巨大データセンター+莫大な電力を必要としている
  • 人間の脳は 20W という省エネで同等以上の処理をこなしている

しかも、AIは依然として「意味を持ったパーツ」を自在に扱うことはできません。今回の「AIはイラレを使えない」という事実は、人間の脳がいかに優れたバイオコンピュータであるかを物語っているとも言えます。

ノイマン型のコンピューターやトランジスタによる回路では永遠に埋められないほどのハード的性能差があるのです。その仕組みは別の記事で書かせていただきました。


まとめ

AIは「リアルっぽい画像」や「言語的に自然な文章」を作るのは得意ですが、意味を理解して抽象化し、シンボルとして自在に操る能力は持っていません。
背景透過やベクター編集のような「人間にとって当たり前の作業」すら、本質的には実現できないません。

人間の脳の効率性と抽象化能力のすごさを改めて感じます。
現在のコンピューター技術で人間が持つ「意味理解」を実現するにはまだ長い研究が必要であり、

――つまり、▼AIのアイコン画像を手作業でくりぬいた私に感謝してほしいという事です。マジで。マジで…

上部へスクロール