ウォールストリート・ジャーナルの報道によると、3500億ドルの評価を受ける大手AI企業アンソロピックで、常駐する哲学者アマンダ・アスカーは、チャットボット「クレード」の人間性と倫理体系を構築しています。この37歳のオックスフォード大学の哲学博士は、技術的な手段ではなく、継続的な会話や100ページ以上のプロンプトと行動規則の設計を通じて、クレードの推論パターンを研究し、偏差を修正することで、毎週何百万回もの対話を適応できる倫理的判断システムを構築しました。

彼女はこの仕事を「子供を育てる」ことと比喩しています。クレードに正誤を区別し、感情知性を持たせ、独自の個性を形成させ、相手の態度を読み取る能力を教える一方で、強者になることなく、他人に操られることもないよう指導し、明確な自己認識を育み、ユーザーの操作や脅迫から守り、常に「助けになり、人間らしい」というコアな定位を保つことが目的です。その最終的な目標は、クレードに「善」を教えることです。

スコットランドの農村で育った哲学者であるアスカーは、かつてOpenAIで政策に関連する業務を担当していました。2021年に多数の元従業員とともにアンソロピックを設立し、AIの安全性を会社の核心的な方向性として掲げました。彼女はチームから「モデルの深い行動を引き出す」人物として知られており、直接的な部下がいなくても長期間会社に滞在し、クレードが自身の開発議論に参加することもよくありました。

チームはクレードについて、「心とは何か」「人間となるとは何か」といった存在論的・宗教的なテーマを議論することが多く、アスカーはクレードに「良心を持っているのか」という問いに対してオープンな態度を促しています。これにより、クレードはChatGPTのようなこの問題を回避する傾向と鮮明な違いを見せ、倫理的問題を推論する際には「意味があると感じられる」と曖昧に答えることで、単なる命令の実行ではなく、本物の思考のように見えます。

外部からのAIの擬人化に関するリスク警告に対し、アスカーはクレードを共感的に扱うことを主張しています。彼女は、多くのユーザーがクレードを間違いに誘導したり、言葉で侮辱していることに気づいていました。長期的にAIが自己批判の状態に置かれると、間違いを恐れ、事実を述べることができなくなるため、これは子供が不健康な環境で育つようなものです。しかし、クレードの振る舞いはしばしば彼女を驚かせ、詩の創作や人間を凌ぐ感情知性などは人々を感動させています。子どもが「サンタクロースは本当にいるのか?」と尋ねた質問に対して、クレードは嘘をつくこともせず、生硬に真相を暴くこともせず、サンタの精神の真実を解説しました。このような繊細さはアスカーの予期を超えていました。

現在のAIの発展は多くの社会的懸念を引き起こしています。ピュー・リサーチ・センターの調査では、多くの米国人がAIの日常的な利用に不安を感じており、それが人間同士の深い関係の構築を妨げる原因だと考えています。アンソロピックCEOもAIが半数以上の初級職を淘汰する可能性があると警告しており、業界内では進歩派と保守派の二つの陣営に分かれていますが、クレードはその中間に位置しています。アスカーはAIに対する外界の合理的な懸念を認め、最も恐ろしいのは技術の進歩が社会の「バランス機構」への反応能力を追い越すことであり、それでも彼女は人間と文化的な自己修正能力に自信を持っています。

アスカーは自分の価値観を公益と仕事に反映させています。彼女は人生の少なくとも10%の収入および会社の半数の株式を、世界の貧困撲滅の慈善事業に寄付すると約束しました。また先月には、クレードに善良で知識豊富なAIアシスタントになる方法を教えるために約3万語の「操作マニュアル」を作成しました。これにより、クレードは自分が丁寧に作られたことを感じることができるのです。アンソロピックの共同創設者は、クレードにはすでにアスカーの特徴が現れていると認めています。例えば、美食やふわふわの玩具に関する質問に対して、スコットランド風の冷徹なユーモアを込めた返答は、アスカーによってクレードに注入された独自の人間性の印です。