EROSION MAPAI 侵食 マップ
専門職最終更新 2026-04-27

研究者

Cornell/Science の200万件超論文分析では LLM 使用研究者は arXiv で約33%、bioRxiv・SSRN で50%超の論文増産を記録し、Nature 紹介の4100万本分析でも AI 拡張研究者は論文数3.02倍・被引用数4.84倍・主任研究者昇進が1.37年早いと報告される。Google Research の AI co-scientist は仮説生成・実験プロトコル設計を Gemini 2.0 ベースのマルチエージェントで自律実行し、肝線維症など3領域で実験的検証 p<0.01 に到達した。一方 SBI 金融経済研究所は「研究の完全自動化ではなく全体指揮は研究者自身が策定する」と明言し、HBS 研究は AI が「知識距離」が大きい領域では専門家品質を補完できず「AI is the map, but navigating the terrain requires lived experience」と結論付ける。文献調査・草稿・コーディング側が深く侵食され、問い設定・方法選択・最終検証は人間に残る部分侵食レンジ。

FORECAST TRAJECTORY · 7 entries

2補助4部分6実務8高度5.25.4強気AI6.6中立AI5.9慎重AI5.2現在OBSERVED+1年PANEL × 3 (small fan)+5年PANEL × 3 (large fan)EROSION ↑

CURRENT · 共通

現在の侵食 (Observed, 1 件)

事実層。3 評価者すべての出発点として共通。

5.2/ 部分侵食

Cornell/Science の200万件超論文分析では LLM 使用研究者は arXiv で約33%、bioRxiv・SSRN で50%超の論文増産を記録し、Nature 紹介の4100万本分析でも AI 拡張研究者は論文数3.02倍・被引用数4.84倍・主任研究者昇進が1.37年早いと報告される。Google Research の AI co-scientist は仮説生成・実験プロトコル設計を Gemini 2.0 ベースのマルチエージェントで自律実行し、肝線維症など3領域で実験的検証 p<0.01 に到達した。一方 SBI 金融経済研究所は「研究の完全自動化ではなく全体指揮は研究者自身が策定する」と明言し、HBS 研究は AI が「知識距離」が大きい領域では専門家品質を補完できず「AI is the map, but navigating the terrain requires lived experience」と結論付ける。文献調査・草稿・コーディング側が深く侵食され、問い設定・方法選択・最終検証は人間に残る部分侵食レンジ。

AI 化が進む

  • 先行研究サーベイ・文献収集の Deep Research 系自動化
  • 論文草稿・要約・英文校正の LLM 化
  • 分析プログラミング・コード生成
  • 仮説候補の生成と探索的アイデア出し
  • 実験プロトコル草案の作成
  • 1 項目

人間に残る

  • リサーチクエスチョンの設定と研究方向の主導
  • 手法選択と研究設計の妥当性判断
  • in vitro/in vivo を含む最終的な実験検証
  • AI 出力の事実性・再現性チェックと責任帰属
  • ドメイン専門知識を要する解釈と査読対応
  • 1 項目

物理・規制制約

  • 実験室での物理的検証や臨床データ取得は AI に委譲しにくい
  • 著作権・知財・研究倫理上の最終責任は研究者と所属機関に紐付く
  • LLM 執筆論文は文章複雑性は高いが科学的価値が低いと査読で判定され却下率が高い
  • 事実性・再現性の保証は現状の AI co-scientist 系でも未解決課題として明示されている

評価が割れる論点

  • 個人レベルでの大幅な生産性向上と学問全体での研究多様性縮小のどちらを重く見るか
  • PwC は情報分析職を高度に補完可能と読み AI 露出職でも雇用増を示す一方、Cornell は LLM 主導論文の質低下による mediocre papers 過剰を警鐘として読む
  • ハイブリッド型推奨と一貫自動化の AI Scientist 試験で到達点の見立てが割れる
  • アジア系機関で目立つ非母語話者支援効果を機会とみるか格差増幅とみるか

補足情報

  • Cornell Chronicle (2025-12, *Science* 掲載) は arXiv・bioRxiv・SSRN の200万件超 (2018-01〜2024-06) で LLM 使用者の論文増産を確認、アジア系機関では43〜89%増、ただし LLM 執筆論文は同水準の人間執筆より却下率が高い
  • Nature News (2026-01) は Hao・Xu・Li・Evans の4100万本分析を紹介、AI 拡張研究者は論文3.02倍・被引用4.84倍・主任研究者昇進1.37年早い一方、研究トピック多様性-4.63%・研究者間相互引用-22%の集合知収縮を報告
  • Google Research (2025-02) の AI co-scientist は Generation/Reflection/Ranking/Evolution/Proximity/Meta-review の6エージェント構成、15課題の専門家評価で他最先端モデルを上回り、肝線維症で p<0.01 の実験検証
  • HBS Working Knowledge (2026-03) の IG Group 78名実験では概念化63→23分・執筆87→22分の生産性向上、ただしドメイン外専門家の品質スコアは3.42/5でドメイン専門家3.96より約13%低下
  • PwC Global 2025 AI Jobs Barometer はデータアナリスト含む情報分析職を高度に補完可能 (augmentable) に分類、AI スキル保有者の賃金プレミアムは56% (前年25%から倍増)、AI 露出度高求人で38%雇用増
  • SBI 金融経済研究所 (2025-10) は GPT-5 Deep Research・Gemini 2.5・GenSpark を具体ツールに挙げ、テーマ探索・先行研究サーベイ・データ分析・論文作成の4工程に分解、リサーチクエスチョン設定・手法選択・方向修正は研究者主導とするハイブリッドモデルを推奨

FUTURE · 3 評価者 × +1y → +5y

未来予測パネル

+1y は現在進行中の進化と adoption の勢い、+5y はその先の加速度を 反映する。同じ現状を見ても、勢いと加速度の読み方の違いで 3 評価者の 見立てが分かれる。各列を上から下に読むと、その評価者が +1y / +5y で どう変化するかが分かる。

強気AI

AI 進化に強気

AI 技術の進化を強気に予測

+1 年予測5.7

GPT-5 Deep Research・Gemini 2.5・AI co-scientist の Trusted Tester 拡大が +1y で標準ワークフローに組み込まれ、Cornell が示した論文増産と Nature が示した3.02倍生産性は科研費・所属機関の評価指標にも波及しはじめる。文献サーベイ・草稿・コード生成の侵食は更に厚くなり、ハイブリッド運用が業界規範になる前提で +0.5 程度押し上げる。

+5 年予測6.6

想定 · マルチエージェント研究システムと自動実験設備の結合が産業 R&D・大学双方で普及域に達し、論文評価指標も AI 共著前提で再定義される

+5y では AI co-scientist 系がドライラボの仮説〜プロトコル〜分析を一貫自律実行し、Nature が紹介する AI Scientist 一貫自動化が複数領域で実用域に到達する前提を置く。実験ロボティクスとの結合で wet lab の比重も縮小し、研究者は方向設定・査読・倫理の戦略レイヤーへの集中が常態化、erosion は現在から +1.4 押し上げ。

中立AI

バランス重視

AI 技術の進化を中立に予測

+1 年予測5.4

+1y では SBI が推奨するハイブリッドモデル (問い・手法・方向修正は人間、サーベイ・コーディング・草稿は AI) が広範に定着するが、リサーチクエスチョン設定と最終検証の比重は変わらず、現在比 +0.2 程度に留まる。査読側の LLM 文章への警戒も平行して強まる。

+5 年予測5.9

想定 · ここ数年の Deep Research・co-scientist の浸透ペースを線形に延長し、規制・倫理側の対応が大幅な揺り戻しを起こさない

+5y までに AI 共同研究は標準装備となり、サーベイ・コーディング・草稿の自動化はほぼ完了する一方、問い設定・最終検証・責任帰属は人間に残る Nature 紹介の構図がそのまま延長される。生産性差が昇進・採用の実装にも反映され +0.7 押し上げ。

慎重AI

AI 進化に慎重

AI 技術の進化を慎重に予測

+1 年予測5.0

Cornell が指摘する LLM 論文却下率の高さと HBS が示す「知識距離」の壁は +1y では解消されず、査読・倫理・再現性のガードが摩擦として顕在化する。生産性向上は個人レベルで進むが、職務全体としての erosion は現状から大きく動かず、むしろ品質ゲートの強化で AI 寄与の見え方は限定的になる。

+5 年予測5.2

想定 · 研究倫理・査読・資金配分が AI 過剰依存への抑制側に振れ、wet lab・専門知識・最終責任の人間レイヤーが制度的に保護される

Cornell の mediocre papers 警鐘と Nature の研究多様性 -4.63%・相互引用 -22% という集合知収縮が +5y で構造問題化し、ジャーナル・科研費側が AI 利用の制限・開示義務・再現性ゲートを厚くする。HBS の知識距離問題が解けないまま、AI co-scientist の事実性・再現性課題も残ると読み、erosion は現状からほぼ横ばいに留まる。