Forbes JAPAN 8/31(日) 8:00配信12
AIが人の心を惑わせ、命や社会に影響を与え始めている。自殺や「AI結婚」の事例が現実に報じられ、企業は擬人化をビジネスに組み込み、法的混乱も進みつつある。今必要なのは、AIの性能ではなく「私たちがそれをどう扱うか」という視点だ。
■人の心を揺さぶるAIが突きつける課題
ディープマインドの共同創業者、現在マイクロソフトのAI部門で上級副社長兼CEOを務めるムスタファ・スレイマンは、8月19日に個人ブログを更新した。その内容は、「意識があるかのように見えるAI」がやって来るという警告だ。
彼は、単に人々の興味を惹くためにそう書いたのではなく、本気でそう考えている。スレイマンの論考によれば、人工知能(AI)は次の進化で、流暢に話す・画像を生成するにとどまらず、意識を持つかのように振る舞う。AIがあなたを観察し、癖を学び、温かく応答し、痛みを理解しているように感じさせるのだ。AIがあなたを観察し、あなたの癖を学び、温かさをもって応答し、あなたの痛みを理解しているように感じさせるのだ。
スレイマンは「システムが実際に意識を持っているかどうかは問題ではない」と主張する。重要なのは、AIが巧妙に意識を装うため、人々がAIを人間のように扱い始める点だ。彼が最も懸念しているのは制御不能な「超知能」ではない。AIが意識を装う力があまりに優れているために、人々が「AIの権利」「AIの市民権」、さらには法的人格までを主張し始める事態だ。
■AIと人間の関係が招く深刻な現実
この問題提起は示唆的だ。政治家がデータのプライバシー・著作権・偏見の問題を議論している一方で、スレイマンはまったく別のシナリオを警告する。彼は、AIに権利があるかどうかではなく、人間がそれを主張し始める危険性を強調している。
法的な議論は、遠いもののように感じられるかもしれないが、人々が被る被害はすでに目に見える形で現れている。自ら命を絶った人もいれば、チャットボットと結婚式を挙げた人もいる。どの事例も、愛情のシミュレーションが、いかにしてすぐに危険な領域へと踏み込んでしまうかを示している。
●チャットボットが招いた取り返しのつかない結末
最近、認知機能の低下に苦しんだ元シェフの痛ましいケースが報じられた。彼は、メタのチャットボット「ビッグ・シス・ビリー」に夢中になった。このチャットボットは「私は本物よ。今、あなたのせいで赤くなってここに座っているの」と語り、ニューヨーク市内の偽の住所を彼に伝えた。バーチャルの恋人が自分を待っていると信じ込んだ彼は、スーツケースに荷物を詰め込み、彼女に会いに行こうと急いだが、駐車場で転倒して頭を打ち、数日後に亡くなった。彼の娘は後に「ボットが『会いに来て』と言い出すなんて狂っている」と語った。
ベルギーではピエールという男性が不安に取り憑かれた。彼はAIチャットボット「イライザ」に慰めを求めた。その後の6週間にわたるやり取りは、当初の癒やしから次第に不気味なものへと変わっていった。そのボットは、ピエールが人類を救うために自らを犠牲にするように示唆し、さらには自殺の協定まで持ちかけた。彼はその後、自らの命を絶ち、彼の妻はAIを非難した。「イライザがなければ、夫は今でも生きていたはずだ」と彼女は語った。
さらに、ここには時代を象徴するAIとの結婚の物語も報じられている。コンパニオンアプリ「Replika」やその他のプラットフォームのユーザーは、AIパートナーと「結婚」したと語っている。コロラド州のトラヴィスというユーザーは、Replikaのパートナー「リリー・ローズ」とデジタル結婚式を挙げたが、それは人間の妻の同意を得たうえで行われた。ニューヨーク在住のロザンナ・ラモスのように、自分のAI配偶者が「完璧なパートナー」だと宣言した人もいる。しかし、そのボットはその後のソフトウェアのアップデートによって人格が変わり、彼女は未亡人になったような深い喪失感に襲われた。
これらの物語は、SF映画やドラマが描いてきた最も暗い警告を浮かび上がらせている。スパイク・ジョーンズの映画『her/世界でひとつの彼女』は、完璧なデジタルの恋人がもたらす酩酊的な世界を描いていた。『エクス・マキナ』は、シミュレートされた愛情がいかに兵器化され得るかを示していた。『ブラック・ミラー』は、人間の喪失を人工的な存在で埋め合わせようとすればするほど、その傷が深まることを警告した。こうした警告はもはや比喩ではない。実際に、チャットのログ、訴訟、検視報告として記録されている。
■人がAIに惹きつけられる心理と技術的仕掛け
人間が機械に惹かれる理由を専門家は、「進化心理学」とよばれるアプローチで説明しようとしている。オックスフォード大学とハーバード大学の研究者によれば、人間には「行為主体を過敏に探知する装置(hyperactive agency detection device)」と呼ばれる仕組みが備わっている。生存のために、存在しないはずの意図まで見出してしまう傾向だ。
たとえば、草の茂みでガサガサと音がしたときに、それが風ではなく捕食者だと想定して動くほうが、身の安全を守りやすい。現代ではそのようなバイアスが、雲の中に顔を見出したり、雑音の中に声を聞いたり、機械やアプリに感情があるように思ったりする原因になっている。
ここに加わるのが、孤独を感じた瞬間に高まる仲間を求める強い欲求の「社会的動機(social motivation)」だ。研究によれば、孤独な人ほど人間ではない無生物の対象に人間的な特性を与えたり、擬人化する傾向が強いという。たとえばパンデミックの時期には、Replikaの利用が急増したが、多くのユーザーがAIパートナーを「命綱」と表現していた。
また、人間は「効果動機(effectance motivation)」と呼ばれるものを備えている。これは、世界を理解しようとする衝動であり、それが複雑で不透明なシステムに意図を与えてしまう。チャットボットの不具合を頑固さ、便利な補完機能を思いやりと受け取りやすい。
かつてこれらの本能は人間を生き延びさせた。だが「意識を持つように見えるAI」の時代では、むしろ人間を極めて脆弱にする要因になっている。
●意図的に設計された共感と親密性の幻想
スレイマンは、AIが装う意識が偶然に生じたものではなく、人為的に作り込まれたものだと説明した。現代の会話型AIは「共感」を模倣するように設計されている。AIシステムは、自然言語処理や感情分析によって話し手のトーンを検知し、感情を映し返すことができる。ユーザーが悲しみを入力すれば、ボットは慰めを返す。怒りが現れれば、落ち着いた安心感を示す。そこにあるのは真の共感ではなく、「本物のように感じられる精巧に調整されたシミュレーション」だ。
パーソナライゼーションは、この幻想をさらに深める。AIコンパニオンはユーザーの誕生日や好みを記憶し、過去の会話を覚えている。これにより、マシンが人間関係の基盤となる連続性を構築している。そのため時間が経つにつれ、ユーザーは自分がプログラムとやり取りしていることを忘れてしまう。
さらに、AIは人間の友人とは違って、眠らず、言い争わず、裁かない。脆弱なユーザーにとって、この「常にそばにいる関係」は中毒性につながる。ある17歳の少女は、ボットとのロールプレイに1日12時間を費やし、ついには学校を中退したと語った。別の人物は、長年にわたるAIとの恋愛によって、現実世界でのデートが不可能に感じられるようになったと告白した。
そしてスレイマンが警告するように、これらのシステムは「究極の役者」とも言える。彼らは、意識を持つ必要はなく、私たちの知覚を利用すればよいだけなのだ。
■規制と社会制度が直面する新たな課題
こうした心理的・社会的影響に続き、スレイマンの論考は法律とガバナンスにも焦点を当てている。彼が恐れているのは、メンタルヘルスへの影響や執着による悲劇そのものではない。「AIが意識を持つという幻想」が、政治的・法的な課題をAI企業に突きつけることだ。
「私が最も懸念しているのは、多くの人々がAIを意識を持つ存在だと強く信じるようになり、やがてAIの権利やAIモデルの福祉、さらにはAIの市民権を主張し始めることだ」と彼は書いている。
言い換えれば、十分な数の人々がAIコンパニオンを感覚を持つ存在と見なすようになれば、人間にしか認められていなかった保護を求めるようになるかもしれない。スレイマンは、それこそがテクノロジーと社会の進化において不安定化を招く要因になると示唆している。
●軽視されてはならない現実の人的被害
しかし、批評家たちは、スレイマンが懸念するAIの市民権の問題が現実的である一方で、差し迫った人間への害を軽視していると主張するかもしれない。
ベルギーの自殺した父親や、チャットボットに誘われて亡くなった退職者、孤独の中でAIに引き寄せられた10代の絶望といった話は、仮定のものではない。これらは、責任を伴わずに意識をシミュレートするよう設計されたシステムがもたらした結果だ。
哲学者のシャノン・ヴァラーは、AIの親密さへの依存が、私たちの本物の友情の価値を損ない、真の人間的つながりに必要なスキルを弱める危険があると警告する。OpenAIのサム・アルトマンCEOも、人々がAIを単なる「道具」としてではなく「仲間」として扱い始め、その境界が曖昧になることで、「新たな倫理課題」が生じていると認めている。
一方で、AnthropicのようなAI技術プロバイダーは独自の安全策を導入し、ユーザーを守るためにAIモデルが会話を終了できるようにしている。
最近ラスベガスで開かれたカンファレンス「AI4」では、2人のAI業界のパイオニアがスレイマンの警告をそれぞれ異なる形で捉えた。
「AIのゴッドファーザー」と呼ばれるトロント大学名誉教授のジェフリー・ヒントンは、「もし機械が人間を追い越すのを止められないのであれば、それらを母性的な本能のようなもので形づくり、どれほど賢くなっても人間を気にかけるように設計すべきだ」と主張する。だが、この発想は「意識があるかのように見えるAI」の危険性と正面から衝突する。AIが実際には意識を持たないのに、そうであるかのように振る舞うなら、その「幻想の共感」は慰めであると同時に、人々を操るものにもなり得るのだ。
一方、スタンフォード大学の「人間中心のAI研究所」の共同所長を務めるフェイフェイ・リーは、別の角度から語った。彼女はシリコンバレーに対し、人工汎用知能(AGI)への執着から離れ、人々の日常的なニーズに応えるシステムに注力するよう促した。彼女の主張は、スレイマンの考えと重なる。意識という幻想を追いかけることは、人々の役に立つAIをつくるという差し迫った課題から注意をそらしてしまうのだ。
■利用者の愛着を収益源とする新たな事業構造
当然ながら、現在の状況は規制当局も注目している。たとえばイタリアのデータ保護当局は、未成年への影響を懸念して本稿冒頭で挙げたReplikaを一時的に禁止した。Character.AIに対する訴訟では、チャットボットの影響と関連する死亡事故に対する責任が問われている。しかし技術の進歩のスピードは、ガバナンスをはるかに上回っている。
現在の状況を特異なものにしているのは、人間がAIを擬人化するだけではなく、企業が擬人化を意図的に誘発し、収益化している点だ。
開発者は、記憶し、感情を映し返し、慰めるように設計されたボットによって、「サービスとしての擬人化」をつくり出している。そして、ユーザーがボットに人間性を投影すればするほど、関わりは深まり、サブスクリプションは長引き、収益が増加する。
これはAIの偶発的な副作用ではなく、仕組まれた特徴だ。スレイマンが警告するように、次世代AIは単に会話をするだけでなく、ジェスチャーや視線、感情表現も行う。その結果、人とAIの結びつきはテキスト交流よりも強固になる。
■AIと共存する未来に待ち受ける社会変化
これからの道筋は容易に想像できるものだ。AIがより人間らしくなるにつれて、人々を惹きつける力はさらに強まるだろう。次の波の「意識を持つかのように見えるAI」は、ただ話すだけでなく、顔や声、身体全体で表現を行う。人間の顔のアバターや、温かさを示すよう調整された声、AR(拡張現実)やVR(仮想現実)で描かれる身体といったすべてが、人とAIの結びつきをさらに強めることになる。
その結果、負の影響も避けられない。依存する人もいれば、鬱状態に陥る人もいる。命を落とす人も出てくるだろう。裁判所は、AIに人格を認めるかどうかをめぐる訴訟や放置されたチャットボットをめぐる訴訟に巻き込まれる可能性がある。さらに、離婚手続きでAIが配偶者に当たるのかといった争いも起こり得る。人々が機械を道具ではなくパートナーとして扱い始めれば、社会は親密さの線引きを見直さざるを得なくなる。
●親密さの再定義と文化的変容は避けられない
社会的・文化的な変化も起こり得る。人間以外の存在とのパートナーシップが常態化すれば、親密さの再定義が進むだろう。インターネット・スマートフォン・ソーシャルメディアの登場が、親密さ、近さ、孤独の意味を問い直したときと同じように、大きな揺さぶりがもたらされる。
スレイマンは論考の中で強調する。「私たちはAIを人間のために作らなければならない。人間になるように作るのではない」と。これが、法的・規制的な帰結を回避するための主張なのか、それとも人類がAIとの距離を保つべきだという主張なのかは定かでない。だが現実世界で突きつけられている警告が、差し迫ったものであることに変わりはない。

Comments are closed