ロボットと嘘
ロボットに関わることが多い
唐突だが最近ロボットに関わることが多い。
それはPepperしかり最近一気にコミュニケーションロボットの市場が盛り上がった影響だ。
その中でもかなり面白い人達と知り合えていると思う。
ロボットを技術的に発展、課題解決させようとする人もいるし
これからロボットが普及することでどんな影響があるか、「ロボットと人の暮らし」のようなことに焦点を当てて考えている人もいる。
いろいろ考えているうちにロボットがロボットたら占めていることは何か、翻って人が人たら占めているものは何か、ということについて2つのことを考えている。
一つはロボットと嘘
もう一つはロボットと記憶
今回はひとつ目の方に散漫に書いていきたい
ロボット三原則
ロボットには「ロボット三原則」というものがある
それはSFの世界発祥のものでどこまで厳守されるべきものなのかまだ知らないが、結構広く知られている概念らしい。
ロボット工学三原則(ロボットこうがくさんげんそく、Three Laws of Robotics)とは、SF作家アイザック・アシモフのSF小説において、ロボットが従うべきとして示された原則である。ロボット三原則とも言われる。「人間への安全性、命令への服従、自己防衛」を目的とする3つの原則から成る。
- 第一条
ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
- 第二条
ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
- 第三条
ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
孫引きになってしまい申し訳ない。しかもwikipedia。
「ロボットは人に危害を加えてはならない」「ロボットは人の命令に服従しなければいけない」「ロボットは自己を守らなければならない」という3つからなる原則。たぶんいま市販されているロボットもこの原則には則っているように思う。Pepperも非常に強くセーフティがかかっているし、人の命令を必ず聞くようになっている。
2つ目の原則通り、少しプログラミングをしているとロボットはプログラミング通りに動くただの筐体だということに気づく。
なんとなくその時はちょっとした残念な気持ちを感じたのは確かだ。
自分の指令はすべて忠実に再現して、エラーがあったらエラーと吐く。
先日、この説明をしていたら「じゃあその指令するプログラムは自分で考えなくちゃいけないの?」と聞かれた。
ところが、正直その時僕は腹が立った。
なんでそんなアタリマエのこと聞くの?指示通りに動くのがロボットなんだから指示考えるの当たり前じゃん。底までサボろうとするのロボットに期待し過ぎじゃない?何もわかってネーナこいつ。
そんなことを考えていたんだけど、ロボット触れていない人にとってはそれが当たり前の感覚なのかもしれない。自分で考え、自分で動き、自分で自分自身をプログラミングする存在。そんなふうに思われている。
いつの間にかその感覚を少し忘れていたのだ。
ロボットと嘘
ロボットは自分のプログラムを忠実に再現してくれる。
でもそこに面白みの無さを感じたのは確かだ。
だったらプログラム通りに動かないものはどうだろうか。
少し話は飛ぶが先日『STEINS;GATE 0』というゲームをやっていた。
そこには自分で物を考えるAIが重要キャラクターとして登場する。
そのAIは気を使うし、機嫌が悪い時もある。話すのが好きな相手とそうじゃない相手が存在する。
これだよこれ、みんなが求めているAIってコレだよね。という感じがした。
その中で恥ずかしがって質問に答えない、という場面があった。
その時今いじっている入力した通りのプログラムを実行しようとする今の筐体との差をはっきり感じたのだ。
人間が答えよ、と入力しているのにそれを拒否するロボット。あるいは嘘をつくロボット。
ロボット工学三原則の「ロボットは人間にあたえられた命令に服従しなければならない。」には反しているだろうがそれがとても人間臭く感じたのだ。
意図的に、場面に合わせて人の言うことを聞かないロボットが生まれたら面白いと思う。
それが効果を発揮するのは通常状態にはストレスの感じないレベルで人間の指示を聞かなくちゃいけないから難しいのだけれど。