aki_iic’s blog

己の欲せざる処人に施す事無かれ、狂人の真似するは即ち狂人なり

戦場のLLM

 MIT tech reviewよりの記事より。

 記事の品質(信頼性)としては・・・二流?・・・MITってブランド詐欺っぽい(偏見です)。

www.technologyreview.jp

最近の記事に書いたように、この新たな手法は、ペンタゴン(米国防総省)が監視などの任務のために、人間のように会話に応じてくれる生成AIの使用をあらゆる階級で推進していることを示す、最新の証拠だ。米軍による人工知能(AI)推進の第2段階を考えてみよう。第1段階の開始は2017年にさかのぼる。ドローン画像を分析するためのコンピュータービジョンのような、より古いタイプのAIから始まった。最新の一歩はバイデン政権下で始まったが、イーロン・マスク率いる政府効率化省(DOGE)とピート・ヘグセス国防長官がAIによる効率化の加速を声高に推進し始めたため、急がなければならない理由が新たに加わっていた。

記事にも書いたように、軍事でのAI利用の推進に関しては、AI安全性専門家の一部が警告が発しており、地政学的な利害が大きく絡む状況で微妙な機密情報の断片を分析するのに、大規模言語モデル(LLM)が適しているかどうかがまだ分からないとしている。また、軍事でのAI利用の推進によって、AIが軍事データを分析するだけでなく、標的のリストを作成するなどの行動の提案もする世界へと向かう、米国の進化も加速させている。推進派は、これによって精度がさらに高まり、民間人の死者数も減るはずだと言うが、多くの人権団体は正反対のことを主張している。

引用おわり。何というか原文或いは翻訳(両方の可能性も)が下手くそで趣旨が分かりにくい。MITなんちゃら〜はこの傾向が強い(主観)ので殆ど引用しないのだが・・・しなきゃ良かった:)

 3つの課題を要約するに:

 

1. 「ヒューマン・イン・ザ・ループ」の限界は?

2. AIは機密扱いすべきものの把握を容易にしているのか、それとも困難にしているのか?

3. AIは意思決定チェーンをどこまでさかのぼるべきか?

だそうだが・・・うむむやはり下らない記事だな。MITなんちゃらさんには推敲技術の再履修を推奨しておく(なんか偉そう:)。

 この手のライタさんは疑問符で終わる文章を散発してはいけないと思うのですよ。読者にストレスと不満(で、結論は?)を招くだけの三下記事モドキに終始するだけでありました。

10月、バイデン政権はAIに関する国家安全保障覚書を発表し、そのようなシナリオに対するいくつかの安全対策を提示した。トランプ政権はまだ、この覚書を正式に破棄してはいない。しかしトランプ大統領は、米国において競争力のあるAIを目指すには、より多くのイノベーションと、監視の緩和が必要であるという考えを示してきた。とにかく、AIが退屈な事務作業を処理するだけでなく、最も重大で一刻を争う決断を支援するために、急速に意思決定チェーンを駆け上がっていることは明らかだ。

 どうやらライタさんは政権交代によるこの分野への影響に関心があるらしい。それはそれで結構だし必要なのだろう。

 願わくばその肩書並の技術(に色は無い筈だから)に基づく客観的且つ人間が読める(酷い文体でもAIは辛抱強く読むだろうが人間はそうではないので)様、ライティング或いは翻訳技術又は両方のスキルアップを目指されては如何だろうか?

 と私も疑問符で文章を終わらせてみた(我ながら不快な文章ですね。反省)。