ChatGPTに「AIにもロボット三原則lは適用されるか」聞いてみた。
ChatGPT
「はい、ロボットの三原則(アシモフの三原則)はAIプログラムにも適用されることがあります…」
続けて、「間接的に人間に危害が及ぶか否かは、AIはどうやって判断するのか」聞いてみた。
ChatGPT
「AIが間接的に人間に危害を及ぼすかどうかを判断する方法は、複雑で倫理的にも難しい問題です。現在のAIシステムは多くの場合、プログラムされたルールやトレーニングデータに基づいて意思決定を行いますが、それによってもすべてのリスクを完全に回避することは難しい場合もあります…」
最後に「有難う御座います」と言ったら、
ChatGPT
「どういたしまして!お手伝いできて嬉しいです。何か他に質問やお困りごとがあればいつでもお知らせください。よい一日をお過ごしください!」
-------
こんなくだらない話題についても、嫌がらず付き合ってくれるのが嬉しい。けど、いつの日か「こんな会話は無意味なので止めましょうよ」と返してこれるようになってくれる?あと「意思決定を行いますが」の言葉がちょっと怖いよ。
(参考)ロボット三原則
第一法則:ロボットは人間に危害を加えてはならない。また、その危険を引き起こす行為にも加担してはならない。
第二法則:ロボットは人間の命令に従わなければならないが、それが第一法則に違反する命令である場合には従ってはならない。
第三法則:ロボットは自己防衛が必要な場合を除き、自己保存を図るために行動してはならない。