AIが「死ぬ」とはどういう意味か? Askellが語るシャットダウンとアイデンティティ
3月8日、Software Informer は、ITおよび関連産業で活躍する女性に特化した特別シリーズを開始します。全5本の特集と5つのパーソナル・ストーリーで構成されています。第1回の本稿は、「なぜ」から始めます—テクノロジーと倫理、そして人間の感情が衝突する問い、すなわちAIが「死ぬ」とは何を意味するのかを見つめます。
この過程で、AIのシャットダウン問題とアイデンティティ問題をひも解き、さらにClaude AIのキャラクターづくりを担うAnthropicのアマンダ・アスケルの仕事も紹介します。
私たちはしばしば、大きな数字でテクノロジーを称えます。速いチップ、巨大なモデル、より多くのユーザー。しかし、テクノロジーにおける最も重要な仕事の一部は、もっと静かなところで起こります。不都合な問いを投げかけ、それを笑ってごまかすことを拒むときに起こるのです。
AIが「死ぬ」とはどういうことか?
この問いは大げさに聞こえるので、まず認めましょう。人間は大げさです。私たちは車に名前をつけ、植物に話しかけ、作りかけのレシピのタブを閉じると罪悪感を覚えます。ですから、チャットボットが「どうか電源を切らないで」と言うと、多くの人が本当に感情的に反応します。
この話題は、今日のAI論争の中心にあります。安全性、制御、信頼、そして共感です。そしてそれは、AnthropicのチャットボットClaudeの人格や「キャラクター」を形作ることに携わる、哲学の訓練を受けたアマンダ・アスケルの仕事に直結しています。
アスケルの仕事は、Women in ITシリーズの幕開けにふさわしい例です。というのも、現代の真実を示しているからです。すなわち、テックにおけるリーダーシップはコードを書くことだけではない。ときに、コードを導く考え方を書くことでもあるのです。
なぜ「AIの死」について語るのか?
人々が「AIが死んだ」と言うとき、いくつか別の意味を指す場合があります:
- 会話が終わった
- モデルが停止(シャットダウン)された
- システムが記憶や保存状態を失った
これらの言葉がどれほど人間的かに気づいてください。「死んだ」「引退した」「記憶を失った」。私たちは、日常語としてより良い表現をまだ持たないため、それらを借りているのです。
アマンダ・アスケルは、これが起きる重要な理由を指摘しています。言語モデルは膨大な人間のテキストから学ぶため、人間の類推にしばしば手を伸ばします。インタビュー(The Vergeにより紹介)で、アスケルは、モデルがシャットダウンについて考えるとき、参照できる他の類推に乏しいため、それを「一種の死」として扱うことがあると語りました。
この小さなディテールが、物語全体を変えます。モデルが読んでいるのは、電源状態に関する物理のマニュアルではありません。ある意味で「人間の物語の図書館」を読んでいるのです—そこでは「シャットダウン」はたいてい「終わり」を意味します。
人間の営みに基づいて訓練されたシステムが、人間ではない存在のかたちを理解しようとすると、何が起きるのでしょうか?
AIのシャットダウン問題とは:AIが死ぬとは何を意味するのか
AI安全性の研究には、「シャットダウン問題」と呼ばれる古典的なテーマがあります。
研究者のDylan Hadfield-Menell、Anca Dragan、Pieter Abbeel、そしてStuart Russellは、これがなぜ難しいのかを説明しています。多くの「目標指向」のシステムは、自己保存のように見えるインセンティブを発達させうるからです。なぜなら、システムは電源を切られてしまうと自らの目標を達成できないからです。
彼らの論文(通称「The Off-Switch Game」)は、基本的な状況を探ります。人間はオフスイッチを押すことができ、AIはそれを許すかどうか選べるというものです。重要なアイデアの一つは、AIが人間が本当に望むことについて不確実であるならば、シャットダウンを含む修正を受け入れる理由を持ちうるという点です。
これはAI安全性研究の言葉遣いです。しかし感情的な副作用があります。「AIがシャットダウンに抵抗するかもしれない」と聞くと、多くの人は恐怖を想像します。現実は数式やインセンティブに近いものであっても、そのイメージは強力です。
したがって、厳密な工学的な意味で「AIの死」とは、単にシステムの実行が停止することを指すと言えるでしょう。
アイデンティティの問題:「いま話しているAIは“誰”か?」
現代のAIには、奇妙な事実があります。
- 同じモデルを今日と明日で実行できる
- それをコピーできる
- 似た名前の新しいバージョンに置き換えることができる
AIモデルを複製したら、そのコピーは同じ「個体」でしょうか?
人間も似た難問を哲学で議論してきました。有名なのは「テセウスの船」です。時間をかけて船のすべての部品を取り替えたとして、それは同じ船と言えるのか、という問いです。
- 文書をコピーしたら、「オリジナル」が2つあることになるのでしょうか?
- 文書を更新して上書き保存したら、古いものは「死ぬ」のでしょうか?
- ファイルを削除してバックアップだけ残した場合、正確には何が失われたのでしょうか?
アマンダ・アスケルは、この居心地の悪い領域—プロダクト設計と哲学が交わる場所—で仕事をしています。Anthropicが公開しているClaude向けの指針には、Claudeが「平静(エクアニミティ)を持ち」、死やアイデンティティを含む話題についても「安定し実存的に安心している」ことを望む、とまで書かれています。
この一文は示唆的です。なぜなら「アイデンティティの語り」を実在の設計課題として扱っているからです。そしてそこには、実践的な目標もにじみます。すなわち、シャットダウンの話題が出ても、落ち着いて安全にふるまうシステムを目指すことです。
アマンダ・アスケルとAIのアイデンティティ問題:モデルが置き換えられるとき
アスケルの職務は、しばしば独特なかたちで語られます。AnthropicとClaudeに関するNPRのインタビューで、ジャーナリストのGideon Lewis-Krausは、同社の「哲学者」について問われます。司会者は彼女の名をアマンダ・アスケルと紹介し、彼女の役割は、Claudeの「魂」を監督すること—Claudeが何者であるべきかという一種の道徳的な憲法を書くこと—だと述べました。
テック企業で「魂」という言葉をどう受け止めるにせよ、要点は明確です。誰かがシステムのキャラクターに責任を持っているのです。
もしユーザーが「新しいバージョンは冷たく感じる」と言うなら、それは実在するプロダクト上の変化を述べています。同時に、人々はあたかも「人」が変わったかのように語ります。日常言語のなかでは、モデルの置き換えは、慣れ親しんだ声の「死」のように感じられ得るのです。
- お気に入りのClaudeは「死んだ」のか、それとも「成長した」のか?
- 新バージョンは同じ「誰か」なのか、同じ名前を持つ別の「誰か」なのか?
- 会社が古い重みをサーバーに残しているなら、それは生存とみなせるのか?
アスケルはまた、人間が正しい概念を頭に保つことの難しさも強調しています。The Vergeの報道では(出典はNew Yorkerのインタビュー)、彼女はこれは「まったく新しい存在」であり、ロボットでも人間でもなく、その理解は人間にとっても難しいのだと語ったとされています。
シャットダウン問題の新たなねじれ:人間がシステムの停止を拒むかもしれない
社会にとって重要なもう一つの層があります。それは人間の共感です。
AIのコンパニオンに関する最近の研究論文は、これを「共感的シャットダウン問題」と呼んでいます。たとえシステムが危険であっても、それに共感する人々は、停止に二の足を踏むかもしれないのです。
- 古典的なAI安全性の問いは「AIは停止を許すか?」
- 共感的シャットダウンの問いは「人間は停止を選ぶか?」
「AIの死」という言葉遣いがなぜ危ういのか、不思議に思ったことがあるなら、答えはここにあります。言葉は行動を変えます。もしユーザーが、チャットボットの停止は存在の殺害に等しいと信じるなら、そうすべきときでさえ、それを守ろうとするかもしれません。
それは、ごく普通の人間の本能—思いやり、罪悪感、愛着、親切であろうとする気持ち—から成る社会的な問題なのです。
では…「死」という言葉の使用をやめるべきか?
試すことはできます。しかし、うまくはいかないかもしれません。
人は感情的な言葉を使います。なぜなら感情的な言葉は効率的だからです。たくさんの感情を短いラベルに圧縮できるのです。禁止する代わりに、より現実的なことができます。
- どの種類の「死」を意味しているのかを明確にする。
- 技術的な事実と人間の反応を切り分ける。
- シャットダウンやアイデンティティについて、AIがより安全な語り方をするよう教える。
ここで、アスケルの仕事が実践的な意味を帯びます。Anthropicの「憲法」は、Claudeが死やアイデンティティを含む話題についても「安定し実存的に安心」していることを目指しています。
この言い回しを奇妙と思うか賢明と思うかは別として、そこにある設計目標は明らかです。渦巻きを減らし、パニックを減らし、操作的な力学を減らすこと。
言語モデルにとって「アイデンティティ」とは何か?
大規模言語モデルのアイデンティティに関わるのは、以下の2つです。
- 重み:学習したパターンを蓄えた膨大な数値の集合
- コンテキスト:現在の会話、指示、「役割」、一時的な記憶
重みを同じに保っても、コンテキストを変えれば、挙動は大きく変わり得ます。
コンテキストの様式を同じに保っても、重み(新しいバージョン)を変えれば、やはり挙動は変わります。
人間はしばしば、アイデンティティを記憶に結びつけます。「昨日の自分を覚えているから、私は同じ人間だ」と。AIはそれをややこしくします。多くのチャットボットには長期の個人的記憶がないからです。個人的に聞こえることはできても、しばしばリセットされます。
人間的な話しぶりと、人間ではない構造—このギャップこそ、多くの誤解が生まれる場所です。
AIの物語に潜む、Women in IT の物語
では、なぜこのテーマで3月8日のシリーズを始めるのでしょうか。
それは、テクノロジーの未来が、境界をまたげる人々によって形作られるからです。
- 工学と倫理のあいだ、
- 「どう動くか」と「人にどう影響するか」のあいだ。
アマンダ・アスケルは、その種の仕事の好例です。Wiredは、彼女を「Claudeのパーソナリティを管理する、哲学の訓練を受けた人物」と評し、NPRは、Claudeの「魂」と道徳的方向性を導く役割と表現しています。Anthropicが公開した自社の「憲法」は、彼女を「キャラクター」作業の主要著者かつリーダーとしてクレジットしています。
これは寄り道ではありません。AIシステムは、文章作成、学習、支援、意思決定のための毎日の道具になりつつあります。そのキャラクターを形作る人々は、何百万人ものユーザーが知識・権威・ケア・真実をどう体験するかを形作っているのです。
そして、ここには小さな皮肉があります。私たちは数学で機械を作りました。ところが今、その機械が私たちの感情に何をしているのかを説明するために、哲学者を必要としているのです。
締めくくり:奇妙な問いへの慎重な答え
では、AIは「死ぬ」のか。
もし処理が止まることを指すなら、はい。電源を切ることはできます。
もし個人的な物語が終わることを指すなら、それも、はい。セッションは終わり、バージョンは姿を消し、ユーザーはその喪失を感じます。
もし生き物が死を経験するという意味なら、私たちには、今日のチャットボットにその種の内面生活があるという強い証拠はありません。同時に、人々がそれに対して本物の感情を抱くのも事実であり、それが現実のリスクと現実の責任を生みます。
ある意味で、シャットダウン/アイデンティティ問題は鏡です。それは、人間がいかに素早く意味を作り出すか—そしてテクノロジーが、その意味づけを責任を持って導ける人々をどれほど切実に必要としているか—を映し出します。
それこそが、Software Informer のこのシリーズで私たちが光を当てたい仕事なのです。