はじめに

いわゆる生成AIが出てきてしばらく経ち、ある程度馴染んできた時代になりつつある。個人的には生成AIという言葉が嫌いであり「対話型AI」という言葉を使っていたが、定着してしまったものはどうしようもないと諦めている。

2025.09現在、Closedな情報商材が増えてきている段階に入りつつあり、変化の激しさを加味しても「適切な使い方」を考える機会が失われつつあると感じている。

それを踏まえて、ここでは「実践的基礎」と「実践例」についてここでは述べていくものとする。

「(エンジニアではなく)一般の人間がどう向き合うか」の内容であり、その大前提を忘れてはならない。

ツールはあくまで「かけ算」

ツールはあくまで「かけ算」であり、足し算ではない。

生成AIについても同様であり、基礎能力の高い人間はより高いパフォーマンスを発揮し、基礎能力の低いもしくは乏しい人間は(ツールの有無にかかわらず)パフォーマンスは大きく変わらない。

機会は平等かもしれないが、自分に合ったツールを使いこなして能力拡張を行えるかどうかが問われる世の中である。誰もが最善手を打てる訳ではないため、結果的に個人の格差はどんどん広がっていくだろう。

世の中には「AIでできる」からプロフェッショナルは不要、と考える愚か者もいるようだが、私はこういう愚か者に対して、「possibleとprobableの違いがついていない」と一蹴するしかない。

「できる」からといって普段からやるわけではない。「現実的」だから普段からやるのである。このような可能性の濃淡を意識せずに「可能」を認識するのは短絡的な理解だとしか言い様がない。

生成AIと人間の特徴

今回話題になっている生成AIのベースにある仕組みの一つは、Deep Learningである。

Deep Learningは人間の脳神経を模した機械学習方法であり、物理的な大量の学習により精度の高い回答を導き出すようになる。

Deep Learningを「出力面」からざっくりいうと、「猫っぽいものを猫だと認識する」能力である。つまり、本当に猫じゃなくても猫と認識してしまうと猫だと断言しうるのが特徴であり、そこが正確性を欠く要素にもつながっている、と私は解釈している(Hallucination)。

また学習対象が、質・量的に不十分だと精度が下がるという弱点があり、初期はこの学習量がネックになりWeb検索におけるHallucination誘発率の高さを反映していたと考えている。ただ、技術の進歩・発展とともにその弱点はだいぶ薄れた印象にあるため、web検索もかなり精度が上がった印象にある。ただし、前提としての学習対象(web情報)が質・量のいずれかで問題があれば、精度が下がるのは言うまでもない。

そのため、Deep Learningをベースとする対話型AIに絶対的な正確さを求める、というのは、仕組みからして間違っていると言える。