aki_iic’s blog

己の欲せざる処人に施す事無かれ、狂人の真似するは即ち狂人なり

和解

 ロイター本家署名記事より。

 Googleもご多分に漏れずAIチャットボット訴訟に巻き込まれ(企業コンプラとして当然な準備はしていたのでしょうけれど)、和解に達したという事例の様です。

jp.reuters.com

[7日 ロイター] - 米新興「キャラクター・ドットAI」のAI(人工知能)チャットボットの依存症になったためにフロリダ州の14歳の少年が自殺したとして、少年の母親が同社と米アルファベット(GOOGL.O), opens new tab傘下グーグルを訴えていた裁判で、両社は和解することで合意した。和解の条件は明らかにされていない。
7日に裁判所に提出された文書によると、両社はコロラド州ニューヨーク州テキサス州でも、チャットボットが未成年者に被害をもたらしたとされる関連訴訟で和解していることが明らかになった。
少年の母親は2024年10月、息子が同年2月に銃で自殺したのはチャットボットの依存症になり、現実世界で生きる気力を失ったからだとして、キャラクター・ドットAIと技術開発に携わったとするグーグルを提訴した。 もっと見る
少年は米人気ドラマ「ゲーム・オブ・スローンズ」のキャラクターに似せたチャットボットに「愛している」などと語りかけられ、自殺願望について話し、促された直後に自殺したという。母親は同社がこのキャラクターを「実在の人物で大人の恋人であるかのように誤認させる」ようプログラムしたと主張していた。

引用おわり。

 悲しい事案ですが必然とも言えなくもない(相手が人であってもマシンであってもAIであっても)、AIは物であり責任を取れないからその所有者が訴えられたと。

 こういった無数の事案を踏まえてチャットボットとも呼ばれるLLM(今のgoogleブランド名で言えば gemini3)の振る舞いというか反応の慎重さが形成されてきたという意味では(無論、死者は戻っては来ませんが)双方にとって意味があったのかもしれません(AIによる自殺幇助の判例としても)。

 実は最近のgemini3(fast)と対話してると結構、踏み込んだ表現(情緒豊かというかストレートな表現というか)をする事があったので指摘してみたら、文脈上、その表現が最適と判断したとかAIなりに吟味した上での語彙選択と抜かしやがった(生意気だな:)と応答する程度にはLLMは深化している製品もあるらしい。

 個人的にはgemini3(fast)は応答優先で技術的正確さが求められるタスクには不向きな分野(ハードウェア設計とかトラブル解析とか・・・所謂「詰めが甘い」人がやる対応に類似している・・・問題の原因は一つとは限らないし、自説に固執して失敗しても(3回連続失敗しても)おバカ解答を繰り返したのでタスクキャンセルした事も(これは極端な例かもしれませんが)。

 gemini2.5の頃からハードウェア設計は苦手と言ってたからgemini2.5/3(fast)には向いてないタスクは存在する模様。有る意味教訓にもなりました。

#LLMは物知り馬鹿だがホンマモンの馬鹿の時もある(分野により:)