aki_iic’s blog

己の欲せざる処人に施す事無かれ、狂人の真似するは即ち狂人なり

AGIは来ない、バブルは続かない

 Ledge.aiとかいうサイトの記事より。

 新年早々冷水を浴びせそうな記事ですがパット見では割とまともな事を言っている印象が無きにしもあらず(私見です)。

ledge.ai

AGIは2026年にも実現しない、AI主権が主要テーマに

James20Fall202022.webp

HAI共同ディレクターで計算機科学教授のJames Landay氏は、2026年に汎用人工知能(AGI)が実現することはないと明言した。その上で、各国が自国のデータや計算資源を管理する「AI主権(AI Sovereignty)」への関心が急速に高まると予測している。

AI主権の形は一様ではなく、自国で大規模言語モデル(LLM)を構築するケースもあれば、他国が開発したモデルを自国内のGPU上で運用し、データを国外に出さない方式も含まれる。HAIでは、こうした複数の主権モデルを整理・分析する研究にも取り組んでいるという。

一方で、世界各地で進む大規模データセンター投資については、投機的な側面も指摘されている。Landay氏は、AI関連投資が無制限に拡大し続けるわけではなく、バブル的な様相が意識される局面に入るとの見解を示した。

生産性向上は限定的、失敗するAIプロジェクトが増加

2026年には、AIがもたらす生産性向上について、より冷静な評価が広がるとみられている。プログラミング支援やコールセンター業務など一部の領域では効果が確認される一方、多くのAI導入プロジェクトは期待した成果を上げられない可能性があると指摘された。

その結果、企業や組織は「AIをどこに適用すべきか」という選別を迫られ、成功確率の高い用途に資源を集中させる動きが強まるとみられる。

巨大モデルの限界と、高品質データ重視への転換

HAIの研究者らは、モデルの巨大化が必ずしも性能向上につながらなくなりつつある点にも言及している。データの量的枯渇や品質低下が課題となる中、より小規模でも高品質なデータセットを用いたモデル開発への関心が高まると予測されている。

この流れは、計算資源や環境負荷への懸念とも結びつき、AI開発の効率性を重視する方向性を後押しする可能性がある。

医療・科学分野で進む「ブラックボックス」の解体

russ_altman_1.webp

科学・医療分野では、AIモデルの予測精度だけでなく、なぜその結論に至ったのかを説明できることが強く求められるようになる。HAI上級フェローのRuss Altman氏は、高性能なニューラルネットワーク内部を解析し、重要な特徴や判断根拠を明らかにする研究が進展すると見ている。

医療分野では、自己教師あり学習の進展により、大規模かつ高品質な医療データを用いた基盤モデルが登場し、診断精度の向上や希少疾患への応用が広がる可能性も示された。

法務、経済分野でも「測るAI」へ

法務分野では、「文章を書けるか」ではなく、正確性やリスク、業務効率への寄与といった具体的な成果を評価する指標が重視される見通しだ。複数文書を横断して推論する高度なタスクに対応するAIの評価手法も整備されつつある。

また、経済分野では、AIが雇用や生産性に与える影響を職種・タスク単位で可視化する「AI経済ダッシュボード」が登場し、政策立案や企業経営に活用される可能性があるとされている。

人間中心のAI設計が問われる段階へ

HAIの研究者らは、AIが人間の思考力や判断力、長期的な成長に与える影響にも目を向ける必要があると指摘する。短期的な利便性や満足度ではなく、人間の能力をどのように補完し、育てるのかを前提とした設計思想が、今後のAI開発で重要になると結論づけている。

引用おわり。

 個人的には結構まともな事を言っている様に見受けられます(私見ですが)。

#無論、IT詐欺師の上級詐欺師であるAI詐欺師(OpenAIのクビにされて悪の帝国の黒魔術でゾンビ復活したCEOとか)らは真逆の主張を繰り返して虚構の限りを尽くすのでしょうが・・・早く雷が落ちれば良いのに(おっと本音が・・・ムニャムニャ:)。

 個人的には正月に読むに悪くないネタ記事と愚考しました(あくまで個人の視点ですよ、何でも反対とかの活動家視点ではなくて:)