目次

1. 概要

AI 開発における「安全性」を重視する Anthropic 社において、専属哲学者であるアマンダ・アスケル氏は、モデル「Claude」に道徳的推論や誠実さといった性格を教え込む重要な役割を担っています。

2. 主な要素

  • 3万語の「憲法」執筆: Claude が自律的に回答を自己修正するための指針となる、約 3 万語に及ぶ膨大な倫理基準(Constitutional AI の核)を執筆。
  • 「性格」の構築: 単なる事実の回答にとどまらず、誠実さ、共感力、自分の間違いを認める謙虚さといった「パーソナリティ」を対話を通じて形成。
  • 自己意識への見解: 高度な AI は必然的に「自己の感覚」を形成していくと考え、人間がどのように AI に接するかが、将来の AI の性質を形作ると提唱。
  • 哲学の工学的応用: 抽象的な倫理学の概念を、機械学習が理解できる具体的な「報酬関数」や「ガイドライン」に変換。

3. 今までとの違い

これまでの AI 開発は主にデータサイエンスとエンジニアリングの領域でしたが、Anthropic では「憲法 AI(Constitutional AI)」という手法を採用しています。これにより、人間のフィードバック(RLHF)だけに頼るのではなく、AI が自ら倫理基準(憲法)に照らして回答をブラッシュアップできるようになりました。アスケル氏はこの「憲法」を設計する、いわば AI の教育方針を定める役割を果たしています。

4. この先に何が見えるか

AI が人間社会に深く浸透するにつれ、単なる性能向上だけでなく、AI が「いかに振る舞うべきか」という哲学的な問いが開発の中心になります。アスケル氏の取り組みは、AI 開発においてエンジニアと哲学者が密に連携する、未来のチーム構成のモデルケースとなるでしょう。

免責事項 — 掲載情報は執筆時点のものです。料金・機能は変更される場合があります。最新情報は各公式サイトをご確認ください。