Forbesの記事だが提灯ライタなのか否か判断に苦しむつまらぬ記事。
恐れ多くもAsimov御大の三原則に共産党思想でも追加しようなぞ百年早いわ(思い上がるのも程々に)。
貴様ら(共産党の事ですよ、中国国民ではなく)の国が100年保ったら(ソ連は100年経ずして自滅、はて中共は?)まだ100年なんて先が長いぞ、
習近平が死んでも維持しなければならんし、まあ今の中共は共産主義ではなくて習近平ランドに過ぎないのかもしれないが・・・ああ、支那共産党を揶揄しているだけであって、中国国民には何の意図もございません、悪いのは習近平:)
読むに値せず、
#Asimovの霊に謝れ(怒り)!
誤訳の可能性があるので原文のリンクを示しておきます:
中国、EU、米国の共通点と異なる点
ここには、欧州と米国で進みつつあるAIおよびロボットの安全規制と重なる部分が多い。重なりが最も強いのは危害の防止、透明性、人間によるオーバーライド(介入・無効化)であり、重なりが最も弱いのはイデオロギーへの整合や感情操作に関する統制である。例えばEUのAI法(EU Artificial Intelligence Act)は、身体的または心理的な危害をもたらすAIシステムを禁止しており、提案中の中国の規制も明らかに同様の課題に対処している。
また米国では、FTC(連邦取引委員会)の執行措置において、AIであることを開示しない「なりすまし」をすでに標的にしている。中国の規制では、人々がAIとやり取りしていることを明確に開示することを求め、依存傾向のあるユーザーには繰り返しリマインドすることになる(AIが他のスマートシステムに対して自分がAIであると識別すべきかどうかも、米国の裁判で争点になっており、アマゾンとPerplexity[パープレキシティ]が関わる訴訟で問題になっている)。
AIやロボット規制における共通の原則、共通の中核が生まれつつあるのかもしれない。すなわち、人間に危害を加えないこと、ユーザーを欺かないことだ。子どもや脆弱な集団を守り、人間が制御を保持し、学習データを安全に保つことでもある。
しかし、大きく異なる点も多い可能性がある。
EUが「意味のある人間の監督(meaningful human oversight)」を求めるのに対し、中国は危機シナリオでは人間の引き継ぎが必要になることを示唆している。また、米国がFTCのような機関を通じて消費者被害を規制するのに対し、中国は、大規模なAI・ロボット企業に対して、アルゴリズムの届出、セキュリティ評価、監査、承認の閾値を義務付けている。
さらに言うまでもなく、中国では国家とのイデオロギー整合が前提条件である。学習データと出力は「社会主義の中核的価値観」(core socialist values)に整合していなければならない。
ヒューマノイドがどう振る舞う必要があるかを含め、ロボットおよびAIシステムをめぐる追加の世界的規制が今後も進む可能性は高い。中国の規則案は2026年1月25日までパブリックコメント(意見募集)を受け付けているが、施行の有効開始日はまだ設定されていない。この方向性でEU、米国、そして世界の他国が何をするのかも注目される。
中国の規則がもたらす影響で明らかなものが1つある。監督と人間による引き継ぎ要件により、スマートなソフトウェアおよびハードウェアシステムの開発コストと複雑性が増すという点だ。
そして、ロボットの法則をめぐる残る大きな疑問の1つは、戦争向けに作られるヒューマノイドはどうなるのかという点だ。
つまらん引用だが、投稿主は権威主義体制と自由主義体制の対比をしたつもりなのだろうか? 科学とイデオロギーという月と6ペンスを並べるのは勘弁してくれと個人的には言いたい。
権威主義体制では全て(人でも物でもAIでもロボットでも)は共産党の為の支配ツールに過ぎないからそれ以上でもそれ以下でも無い、以上。
妄想を書きなぐるなら他のトピックにされた方が良い、失礼ながら馬脚を表している様であるから(ああ、当方がでしょうかね、少し自制が必要かもしれない)。