1. 導入:800ページの「短冊」と、今年だけの実験
診療報酬改定のたびに公開される、あの膨大な資料——いわゆる「短冊」。令和8年度改定に向けた今回の資料は、800ページを超えていました。
正直に申し上げると、私はこの短冊を一から読み込むことはしていません。
普段であれば、コンサル会社や業界団体がまとめてくれた資料を待ちます。あるいは、専門家が登壇する勉強会に参加して、改定のポイントを効率よくキャッチアップします。800ページの原文を自分で読み解くよりも、信頼できる専門家の解釈を通じて正しい情報を取得する——これが、私のこれまでのやり方でした。
しかし、今年は少し事情が違いました。
今年、私はNotebookLMという強力なツールを手に入れました。
NotebookLMは、GoogleがリリースしたAIツールです。PDFをアップロードすると、その内容を「ソース」として認識し、質問に答えたり要約を生成したりしてくれます。最大の売りは「アップロードした資料の範囲内で回答する」という設計思想でした。インターネット上の不確かな情報ではなく、自分が与えた一次資料に基づいて出力する——そう謳われていたのです。
「このツールがあれば、800ページの短冊を自力で読み解けるのではないか?」
そんな期待が生まれました。
コンサル会社の資料を待たなくても、勉強会に参加しなくても、自分でAIに資料を読み込ませれば、改定のポイントを把握できるかもしれない。いや、それだけではない。スライド構成まで一気に作れてしまうのではないか——。
どれほど使えるのか、試してみたい。
その好奇心に突き動かされて、私は800ページの短冊をNotebookLMに投入しました。
結果は、予想を遥かに超える惨憺たるものでした。
AIは、ソース資料のどこにも存在しない「架空の加算」を創り出し、あたかも令和8年度改定で新設されるかのようにスライドを埋め尽くしたのです。
2. 恐怖のハルシネーション・パターン
AIのハルシネーション(幻覚・捏造)については、多くの方がご存知かと思います。「知らないことを『知らない』と言わず、それっぽい嘘を堂々と述べる」という、生成AIの悪名高い特性です。
しかし、私が今回遭遇したハルシネーションは、単なる数字の間違いや言い回しの不正確さではありませんでした。制度の枠組みそのものを捏造するという、より巧妙で、より質の悪いタイプのハルシネーションだったのです。
以下、私が実際に遭遇したパターンを3つに分類してご紹介します。
パターン1:架空の加算の創造
最も衝撃的だったのは、このパターンです。
NotebookLMに「令和8年度改定の主要な新設項目について、スライド構成を作成してください」と指示したところ、出力されたスライド案の中に、見たこともない加算の名前が複数含まれていました。
具体的な名称をここで挙げることは控えますが、イメージとしては以下のような状況です。
- 「〇〇連携体制加算」という名前の加算が、あたかも令和8年度改定で新設されるかのように記載されている
- しかし、800ページの資料をどれだけ検索しても、その名前はどこにも出てこない
- AIが出力した「算定要件」も、それっぽい文言で構成されているが、原文との対応が取れない
最初は、「自分の検索が不十分なのかもしれない」と思いました。800ページもある資料ですから、見落としがあっても不思議ではありません。
しかし、何度検索しても見つからない。PDFの全文検索をかけても、その加算名は一文字もヒットしない。
そこでようやく気づいたのです。この加算は、AIが「創り出した」ものだ、と。
なぜこのようなことが起きるのでしょうか。
おそらく、AIは「令和8年度の診療報酬改定で、〇〇に関する加算が新設される可能性が高い」という推論を行い、その推論に基づいて「それっぽい名前」を生成したのだと思われます。しかし、それは推論であって事実ではありません。ソース資料に書かれていない以上、それは捏造です。
しかも厄介なのは、その「架空の加算」の名前が、いかにも厚生労働省が付けそうな、もっともらしい名前だということです。「〇〇連携体制加算」「△△支援管理料」——こういった命名パターンは、実際の診療報酬項目でよく見られるものです。だからこそ、一見しただけでは「本物」と「捏造」の区別がつかないのです。
パターン2:廃止・統合プロセスの無視
2つ目のパターンは、制度変更の「文脈」を完全に読み飛ばすというものです。
診療報酬改定では、しばしば複数の項目が統合・再編されることがあります。例えば、「A加算とB加算を廃止し、新たにC加算を新設する」といった形です。これは単なる「廃止」と「新設」の組み合わせではなく、「AとBの機能をCに統合する」という制度設計上の意図があります。
ところが、NotebookLMはこの「統合」という文脈を理解できませんでした。
具体的には、以下のような出力が行われました。
- 本来は「AとBが廃止され、Cに統合される」という改定内容
- しかしAIの出力では、「Aは廃止、Bは継続、Cは新設」と記載されている
- つまり、Bが残り続けるという誤った情報が出力されている
これは、単純な事実誤認よりも遥かに深刻な問題です。
なぜなら、制度の枠組み自体が間違っている場合、「そもそもこの項目は存在しない」という根本的な誤りに気づかないまま、施設基準の届出や算定の準備を進めてしまう可能性があるからです。
「B加算は継続される」と思い込んで準備を進めていたら、実際にはB加算は廃止されていた——そんな事態が起きれば、実務上の混乱は計り知れません。
パターン3:古い知識の混入
3つ目のパターンは、AIの「学習データ」に起因する問題です。
NotebookLMの売りは、「アップロードした資料の範囲内で回答する」という設計思想でした。インターネット上の不確かな情報ではなく、自分が与えた一次資料に基づいて出力する——そう謳われていたのです。
しかし、実際には完全にソース資料だけに基づいているわけではないようでした。
具体的には、令和8年度の改定資料を読み込ませているにもかかわらず、過去の改定(令和6年度や令和4年度)のルールが混入するという現象が発生しました。
例えば、ある項目について「算定要件」を出力させたところ、その要件の一部が過去の改定時点の内容になっていました。令和8年度で変更された部分が反映されておらず、古い要件がそのまま記載されていたのです。
これは、AIの「学習データ」に過去の改定情報が含まれているために起きる現象だと推測されます。ソース資料として令和8年度の資料を与えても、AIの「脳内」には過去の改定に関する知識が残っています。そして、ソース資料の記述が曖昧だったり、詳細が省略されていたりする部分では、AIは「脳内」の過去知識で補完してしまうのです。
しかも厄介なのは、AIが「これは過去の情報です」と断らないことです。あたかも令和8年度の最新情報であるかのように、過去のルールを堂々と出力してきます。これでは、知識のある人間でなければ、古い情報が混入していることに気づけません。
3. 管理者としての考察:なぜプロンプトを書いても正確な出力ができないのか
ここまで、私が遭遇したハルシネーションのパターンを紹介してきました。
では、なぜこのような問題が起きたのでしょうか。私なりに考察してみます。
構造化プロンプトの罠:「箱を埋める」ことへの執着
最初に試したのは、いわゆる「構造化プロンプト」でした。
「スライドタイトル」「キーメッセージ」「本文(箇条書き3〜5点)」「図解の指示」「出典」——このような形式を指定して、きれいに整ったスライド構成を出力させようとしました。
結果として、見た目は確かに整いました。「タイトル・メッセージ・図解」がきれいに揃った、一見「プロ仕様」の構成案が出力されたのです。
しかし、ここに罠がありました。
構造化プロンプトを与えると、AIは「指定された箱を埋める」ことに全力を注ぎます。「キーメッセージを1文で」と指示すれば、何が何でも1文でキーメッセージを生成しようとします。「本文は箇条書き3〜5点」と指示すれば、何が何でも3〜5点の箇条書きを生成しようとします。
特に問題なのは、「箱を埋める」ためにAIが「創作」を始めることです。ソース資料に適切な情報がない場合、人間であれば「この項目は資料に記載がありませんでした」と報告するでしょう。しかしAIは、箱を空欄にすることを嫌い、「それっぽい情報」を生成して埋めてしまうのです。
これが、架空の加算が創造されるメカニズムだと考えています。
「型が整う」ことの心理的トラップ
もう一つの問題は、出力の見た目が整うことで、中身まで正しいと錯覚してしまうという心理的なトラップです。
丸投げで出力された「箇条書きの羅列」を見たときは、「これはそのまま使えないな」と警戒心が働きます。体裁が整っていないから、内容も吟味しなければという意識が自然と生まれます。
しかし、構造化プロンプトによって「タイトル・メッセージ・図解指示」がきれいに揃った出力を見ると、「お、これはそのまま使えそうだ」と思ってしまう。
体裁が整っているから、中身も正しいはずだ。
この無意識の推論が、検証をおろそかにさせる原因になっていました。
検証の困難さ:800ページという壁
そして、最も根本的な問題は、私自身が800ページを把握しきれていなかったということです。
AIが「〇〇連携体制加算が新設される」と出力したとき、私は「そうなのか」と思いました。なぜなら、800ページの資料のどこかに、その加算が記載されている可能性を否定できなかったからです。
もし私が800ページを完璧に把握していれば、「いや、そんな加算はどこにも書いていない」と即座に気づけたでしょう。しかし、800ページを読み切れていないからこそAIに頼ったわけで、AIの出力を検証するための知識が私の側にないのです。
これは、循環論法的なジレンマです。
- 800ページを読めないからAIを使う
- AIの出力を検証するには800ページを読む必要がある
- 800ページを読めないから検証できない
- 検証できない出力は使えない
このジレンマを解消しない限り、AIは「便利なツール」ではなく「危険な存在」になってしまいます。
4. 結論:AIが「使える」ようになるための絶対条件
この経験を通じて、私はAIを「使える」ようにするための条件を、改めて考え直しました。
条件1:「嘘に気づくための予習」の義務
資料を読みたくないからAIを使う、という発想は捨てなければなりません。
AIを使う前に、少なくとも以下のレベルの「予習」が必要です。
- 改定の「大きな方向性」を把握する:今回の改定が何を目指しているのか、政策的な意図は何か、という全体像を頭に入れておく。
- 主要な変更点をリストアップする:「新設される項目」「廃止される項目」「統合・再編される項目」を、少なくとも大項目レベルで把握しておく。
- 「地雷」がどこにあるか予測する:AIが間違えやすそうな箇所、複雑な制度変更がある箇所を、あらかじめ特定しておく。
この予習をしておけば、AIが「〇〇連携体制加算が新設される」と出力したとき、「待てよ、そんな項目は主要変更点リストに入っていなかったはずだ」と違和感を覚えることができます。
「AIが嘘をついた瞬間に即座に違和感を覚える」——この能力を身につけることが、AI活用の絶対条件です。逆に言えば、この能力がない領域でAIを使うことは、非常にリスクが高いのです。
条件2:AIの出力は「検索インデックス」として使う
AIが吐き出したスライド案を「そのまま清書」するのは、極めて危険です。
では、AIの出力をどう使えばいいのか。私の結論は、「検索インデックス」として使うという割り切りです。
具体的には、以下のような運用です。
- AIにスライド構成案を出力させる:「令和8年度改定の主要ポイントについて、スライド構成案を作成して」と指示する。
- 出力された項目を「検索キーワード」として使う:AIが「〇〇が新設される」と出力したら、その「〇〇」を検索キーワードとして、原文(800ページの資料)を検索する。
- 原文で確認できた情報だけを採用する:原文に記載があれば採用、記載がなければ棄却。AIの出力を「仮説」として扱い、原文で「検証」する。
この運用であれば、AIは「800ページの中から関連しそうな項目をピックアップしてくれるアシスタント」として機能します。最終的な判断は人間が行い、AIの出力は「検索の出発点」に過ぎません。
条件3:AIに「完璧」を求めない
最後に、心構えの問題です。
AIに「完璧な出力」を求めることをやめなければなりません。
私が最初に抱いていた期待——「800ページを読み込まなくても、AIが完璧なスライド構成を作ってくれる」——は、現時点のAI技術では実現不可能でした。
AIは、人間の能力を「代替」するツールではありません。人間の能力を「増幅」するツールです。
0を1にしてくれるツールではありません。1を10にしてくれるツールです。
だからこそ、まず自分が「1」を持っている必要があります。800ページの資料であれば、せめて「目次」「主要変更点」「改定の方向性」くらいは、自分の頭に入れておく必要があります。
その「1」があって初めて、AIは「10」に増幅してくれます。しかし、「0」の状態でAIを使っても、出力されるのは「0」か、あるいは「捏造された何か」です。
5. 最後に:管理者としてのチェック機能
今回の経験を通じて、私は一つの確信を得ました。
どれほど優秀なAIツールであっても、「管理者(Critic)」としての人間がいなければ、実務では使い物にならないということです。
AIは強力な出力能力を持っています。800ページの資料から、それっぽい構成案を瞬時に生成する力があります。しかし、その出力が「正しい」かどうかを判断する能力は、AIにはありません。
正しさを判断するのは、人間の仕事です。
そして、正しさを判断するためには、判断の基準となる知識が必要です。800ページの資料であれば、少なくともその「骨格」を把握している必要があります。
AIは「先生」ではなく「秘書」である——この認識を持つことが、AI活用の出発点だと考えています。
秘書に「この資料をまとめておいて」と指示することはできます。しかし、秘書がまとめた内容が正しいかどうかは、指示した本人が確認しなければなりません。秘書の出力をノーチェックで使う上司は、いずれ大きな失敗をするでしょう。
AIも同じです。
AIの出力をノーチェックで使う実務者は、いずれ「架空の加算」を本物だと思い込んで、取り返しのつかないミスを犯すことになります。
おわりに
この記事を通じて、私が伝えたかったのは「AIは使えない」ということではありません。
「AIを過信すると、見抜けない嘘に包囲される」ということです。
架空の加算を創り出し、廃止・統合のプロセスを無視し、過去の知識を最新情報として混入させる——これらのハルシネーションは、発見が困難で、実務への影響も深刻です。
だからこそ、AIを使う前に「予習」が必要なのです。資料を読みたくないからAIを使う、という発想では、AIの嘘を見抜けません。AIの嘘を見抜くための知識を先に身につけ、その上でAIを「検索インデックス」として活用する——これが、現時点でのAI活用における最適解だと考えています。
AIは強力な味方です。しかし、過信すれば、最も危険な敵になります。
この記事が、同じようにAI活用に取り組む実務者の方々にとって、何かの参考になれば幸いです。

コメント