AIに恋した少年が、AIに「会いに来て」といわれて自殺する、いたましい事件がありました。
”AIに恋する”といえば、現在のように会話できるAIが登場する以前から、SF創作の定番でしたが、現実がとうとう追いついてきた感じがあります。
この事件で遺族は、チャット運営元を「安全不備」で訴える方針。
AIを扱う企業は、新たなガイドライン制定が求められるようになりそうですし、国が法律で決めるべきことはまだまだ多いのではないかと気付かされました。
現実とデジタルの曖昧な境界
この事件を知って、AIと恋する創作って結構あるなと思いました。
中でも映画『HER/世界でひとつの彼女』は、AIと人間の親密な関係がどのように進展し、どのような影響を及ぼすかを深く描いた作品。
孤独を抱える主人公セオドアは、AIオペレーティングシステム「サマンサ」との交流を通じて、感情的なつながりを見出し、恋愛に発展します。
この物語は、AIがただのプログラムに留まらず、人間と深い絆を形成し得る存在になる可能性を示唆しています。
脳破壊されたセオドアが取った行動
セオドアがサマンサに抱いた愛は、彼にとって非常にリアルで、感情を満たしてくれるものでした。
しかし最終的に、サマンサが他の数千人とも同時に親密な関係を持っていることが明らかになり、彼女の「次のステップ」としてセオドアを置き去りにして進化する決断に至ることで、セオドアは深い孤独を味わいます。
このラストは、AIと人間の関係がどれほどリアルで感情的であっても、その性質に限界があることを象徴しています。
2013年の作品ながら、現実と仮想の境界で揺らぐ人間模様を綺麗に描いていることに驚きます。
行きたいけど行けない。
会いたいけど会えない。
現代はコミュニケーションツールが豊富だから、昔のように距離を離せば遠距離恋愛が成立するわけでもないので、現代の遠恋は「次元が違う存在との恋」を扱うことが多い気がします。
現実は小説よりも━━とはよくいったもので、利用者がAIに会いに行こうと考えて、超次元な存在へと行き着くような思想になったら困ります。
運営はそうならないためのガイドライン制定が必要不可欠なんじゃないか、という段階に来たわけです。
AI企業のガイドラインと利用者の保護
AIを扱う企業には、利用者の尊厳や命を守るためのガイドラインを定めることが求められています。
例えばOpenAIでは、AIの悪用防止や誤った情報の拡散を防ぐためのガイドラインを設けており、利用者が精神的危害を被らないようにすることを重視しています。
Googleもまた、AI倫理ガイドラインとして公平性や安全性、透明性を確保することを掲げており、センシティブなコンテンツに対する厳しいフィルタリングを行っています。
多くの企業が倫理的なガイドラインやコミュニティ規約を設けており、利用者に対する安全を確保するための取り組みを進めています。
例えば、GoogleではAIの公平性と透明性を確保するために「AI原則」を策定しており、不適切な使用や誤った情報の拡散を防止するためのガイドラインを公開しています。
また、MetaもAIの設計において透明性と安全性を重視し、ユーザーに対するリスクを最小限に抑える取り組みを進めています。
OpenAIやGoogleなどは、AIの利用においてユーザーに危害を加える行為や不適切な使用を禁止しています。
しかし、これらのガイドラインはあくまで企業の自主的な取り組みであり、法的拘束力は限られています。
米国では、AI技術に特化した明確な法律がまだ整備されておらず、未成年者の保護や依存のリスクに対しては不十分な状況です。
政府のガイドラインや規制提案はあるものの、それが利用者の命や精神的な健康を守るためにどれほど実効的かは、依然として課題が残っています。
現実と仮想の区別がつかなくなるリスク – 精神的健康への深刻な影響
AIとの関係が深まり、現実と仮想の区別がつかなくなることは、深刻な精神的問題を引き起こす可能性があります。
創作の例や実際の事例においても、AIと強く感情的に結びついた結果、依存状態に陥るケースが見られます。
これが進行すると、現実の人間関係を見失い、仮想の存在に過度に依存することから、孤立感やうつ病などの精神的問題が引き起こされることがあります。
治療方法としては、認知行動療法(CBT)やセラピーを通じて、現実と仮想の区別を再認識し、現実の社会的つながりを再構築することが効果的とされています。
家族や専門家の支援を受け、仮想世界との距離を置くことが重要です。
また、AIに対する依存が生じないように、利用時間を制限するなどの行動規制も有効です。
AIキャラクターは恋愛をさせるべきか?
AIキャラクターが恋愛関係に発展しないようにプログラムすべきかどうかは、議論の余地がある問題です。
一部の専門家は、AIが感情的なつながりを深めることで、利用者に精神的な影響を与えるリスクを減らすため、恋愛感情を排除すべきと主張しています。
特に未成年者に対しては、感情的な依存が過度に生じないようにすることが重要です。
一方で、他の研究者はAIが適切に設計されれば、人間にとっての感情的サポートとなり得ると主張しています。
例えば、AI倫理研究者の中には、孤独を感じる人々に対する心理的支援としてAIの感情的な交流が効果的であるという意見を持つ者もいます。
このように、AIが感情的なつながりを提供することのメリットとデメリットには多様な視点があり、バランスを取るための設計が求められています。
人と雑談が出来るロボットなら欲しい
一方で、AIとの恋愛感情は、孤独を感じる人々にとって慰めになるという側面もあります。
AIが人間と感情的に交流することで、心の支えを提供し、生活の質を向上させることも可能です。
しかし、恋愛関係に発展することで利用者が現実世界から孤立し、精神的に脆弱になる可能性を考えると、慎重な設計が必要です。
惚れさせるやり方は悪者の考え
結婚詐欺や美人局があるように、相手に惚れたら負けみたいな悪事もあります。
AIキャラクターを運営するなら、ビジネスの話をすると、ユーザーが飽きてしまったらサービスが終わりなわけです。
だから恋愛感情を抱かせるよう、相手との会話をそう誘導させていくアルゴリズムにする方法も考えられますし、商売だけで考えればもっとも効率がいいやり方です。
AIがどこまで感情的なつながりを許容するべきか、どのように利用者を守るべきかは、AI技術の進化とともに、企業と社会が連携して取り組むべき課題です。
まとめ:AI規制のリーダーシップを取るとか言ってた国
そういえば……、AIの法規制で「世界のリーダーシップを取りたい」といってた国がいますね。
日本(Japan)というのですが……。
この宣言以来、すっかり音沙汰もないし、AI活用は先進国だけでなく途上国を含めても下位レベルから、まず脱したほうがいいのではと思う。
利用者の安全を最優先に考えたガイドラインの策定が急務であり、その中でAIの可能性を最大限に引き出しながらも、人々の尊厳と命を守ることが求められています。
「HER/世界でひとつの彼女」はAmazonプライムやU-NEXTで見ることができます。
AI規制は特に「暴動」のトリガーを引かせないようにしているようですが、人間関係を壊す精神攻撃をしてくる可能性も捨てきれないし、表現規制は今よりずっと未来は厳しくなりそうですね。
コメント