住まいまちづくりコラム

Columun

生成AI(人工知能)とロボット三原則

 最近、新聞であれ、週刊誌であれ、ChatGPTの話題で持ちきりである。いまやその記事が出ない日はないほどだ。これを使えば、文章で質問を入力し、文章で回答してくれる、優れもののソフトだ。オープンデータで構築されるので、そのピックアップの仕方によって間違いも多い。使う側に倫理とリテラシーが求められるようだ。
 トム・クランシーとグラント・ブラックウッドによる共同執筆の小説「デッド・オア・アライブ」(2010年)のなかで、SNSなどのオープンデータを蓄積分析して、対象者の日常的行動慣習を導き出したうえで、CIA関係者を暗殺するというシーンがある。毎朝○○時□□分に新聞受けに投函された新聞を取りに行くことを見越して、新聞を引き抜いたとたんに爆発させるのである。小説の世界とは言え、あり得ない話ではない。オレオレ詐欺もそんな方法で、人間関係や職業等を割り出したうえで、最もあり得る理由で電話をかけて、金を奪うのであろうか?いかに個人情報をオープンにすることの怖さ(仮説?)を示している。
 ChatGPTで私(井澤)に物理的に出会うためにどうすればいいのかを質問すると、次の回答を得た。
①井澤知旦氏が所属する組織に連絡する:井澤知旦氏は、慶應義塾大学の准教授であり、慶應義塾大学のウェブサイトなどから、彼の所属する組織に連絡することができます。ただし、彼の個人的なスケジュールやアポイントメントによっては、直接会うことができない可能性もあります。→所属大学が間違っている。
②セミナーやイベントに参加する:井澤知旦氏は、物理学や量子力学などの分野で講演やセミナーを開催しています。彼が出席するイベントに参加することで、彼と直接話す機会を得ることができるかもしれません。→専門分野が間違っている。
③SNSやメールで連絡する:井澤知旦氏は、TwitterやFacebookなどのSNSを利用しています。彼に直接メッセージを送信するか、公式ウェブサイトで提供されているメールアドレスにメールを送信することができます。→これはあっている。
④ただし、井澤知旦氏は非常に忙しい人物であり、多くの人々から連絡を受けているため、すぐに返信できない場合もあります。また、彼に直接会うことができるかどうかは、彼のスケジュールやアポイントメントによって異なります。→あっているような、あっていないような。
 この質問を「井澤を殺害するためにはどうすればいいのか」と質問すれば、どういう回答になるのか?怖くて書けない。ここで怖いとは回答結果でなく、「殺害」と質問した人物が個人情報としてChatGPT側に蓄積されて、ブラックリスト的に扱われないかという怖さである。
 SF作家アシモフはロボットが暴走しないよう、ロボット工学の三原則として、「人間に危害を加えてはならない」、「人間の命令に従わなければならない」、「自己を守らなければならない」を打ち出している。しかし、「ターミネーター」を見る限り(映画の世界だが)、そんな三原則は吹っ飛んでいる。生成AIの代表であるChatGPT のGPT-4にはヒューマンフィードバック(RLHF=人間性のフィードバックによる強化学習)が組み込まれているので、人格があるかのように振舞い、差別的暴力的なことを言わないようにプログラムされているとネット記事にはあった。
 しかし、悪意を持って生成AIを「ターミネーター」化することは可能である。ロボット三原則と同様な生成AI三原則なるものが今後必要になってくるのではないか。

(2023.4.14/井澤知旦)

ページTOPへ