ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 全部申し立て 特36条4項詳細な説明の記載不備 H04N 審判 全部申し立て 特36条6項1、2号及び3号 請求の範囲の記載不備 H04N 審判 全部申し立て 2項進歩性 H04N |
---|---|
管理番号 | 1397217 |
総通号数 | 17 |
発行国 | JP |
公報種別 | 特許決定公報 |
発行日 | 2023-05-26 |
種別 | 異議の決定 |
異議申立日 | 2022-11-18 |
確定日 | 2023-04-18 |
異議申立件数 | 1 |
事件の表示 | 特許第7074716号発明「警備システム及び監視表示装置」の特許異議申立事件について、次のとおり決定する。 |
結論 | 特許第7074716号の請求項1−7に係る特許を維持する。 |
理由 |
第1 手続の経緯 特許第7074716号(以下、「本件特許」という。)の請求項1−7に係る特許についての出願は、平成31年4月24日に特願2019−83408号として出願したものであって、令和4年5月16日にその特許権の設定登録(特許掲載公報発行日 令和4年5月24日)がされ、令和4年11月18日に特許異議申立人弁理士法人もえぎ特許事務所により請求項1−7に対して特許異議の申立てがされたものである。 第2 本件特許発明 本件特許の請求項1−7に係る発明(以下、それぞれを「本件特許発明1」−「本件特許発明7」という。)は、本件特許の特許請求の範囲の請求項1−7に記載された次の事項により特定されるとおりのものである。(符号A−P8は合議体が付した。以下、「構成A1」−「構成P8」等という。) [本件特許発明1] A 複数の監視表示装置と、前記複数の監視表示装置と通信可能に接続された管理装置とを有する警備システムであって、 B 前記複数の監視表示装置のそれぞれは、 C 立哨する警備員を模したキャラクタの画像を表示する第1表示部と、 D 前記キャラクタの音声の出力及び周囲の音声の入力をする音声入出力部と、 E 監視空間を撮像する撮像部と、 F 前記監視空間内の人物を検知する検知部と、 G 前記音声入出力部を介して、前記キャラクタに前記検知された人物と対話させることによって第1応対を行う第1応対部と、 H 前記第1応対部による、前記キャラクタと前記検知された人物との対話の対話状況を特定する特定部と、 I 前記撮像部によって撮像された画像と前記対話状況とを対応付けて前記管理装置に送信する送信部と、を備え、 J 前記管理装置は、各監視表示装置から受信した画像と前記対話状況とをそれぞれ対応付けて表示する第2表示部を備える、 ことを特徴とする警備システム。 [本件特許発明2] K 前記特定部は、前記対話状況として前記キャラクタが前記検知された人物と対話を行っている対話中であるか、前記対話を行っていない立哨中であるかを特定する請求項1に記載の警備システム。 [本件特許発明3] L1 前記複数の監視表示装置のそれぞれは、前記検知された人物の動作及び発話又は前記対話に関する所定の切替条件が満たされるか否かを判定する判定部をさらに備え、 L2 前記送信部は、前記切替条件が満たされると判定された場合、前記第1応対から前記管理装置を操作するオペレータとの通話による第2応対への切替要求を前記管理装置に送信し、 前記管理装置は、 L3 前記監視表示装置を介して前記検知された人物との前記通話を可能とする通話部と、 L4 受信した前記切替要求に基づいて前記第2応対への切替処理を行う第2応対部と、を備え、 L5 前記第2表示部は、前記切替要求を受信した場合に、当該切替要求を送信した監視表示装置から受信した画像に、前記対話状況を対応付けて表示する、 請求項1または2に記載の警備システム。 [本件特許発明4] M1 前記送信部は、前記第1応対部による前記キャラクタと前記検知された人物との対話内容を示す対話履歴を前記画像と対応付けて前記管理装置に送信し、 M2 前記第2表示部は、監視表示装置から受信した画像とともに当該監視表示装置に対応する対話履歴を表示する、 請求項1から3のいずれか一項に記載の警備システム。 [本件特許発明5] N1 前記送信部は、前記切替要求の緊急度を設定し、 N2 前記第2表示部は、前記切替要求を送信した監視表示装置から受信した画像の表示態様を、当該切替要求の緊急度に応じて変更する、 請求項3に記載の警備システム。 [本件特許発明6] O 前記第2表示部は、前記監視表示装置から受信した前記対話状況に応じて当該監視表示装置から受信した画像の表示態様を変更する、 請求項1から5のいずれか一項に記載の警備システム。 [本件特許発明7] P1 複数の監視表示装置から受信した、各監視表示装置によって撮像された監視空間内の画像と、各監視表示装置が表示する、立哨する警備員を模したキャラクタと監視空間内の人物との対話状況とをそれぞれ対応付けて表示する第2表示部を備える管理装置と通信可能に接続された監視表示装置であって、 P2 立哨する警備員を模したキャラクタの画像を表示する第1表示部と、 P3 前記キャラクタの音声の出力及び周囲の音声の入力をする音声入出力部と、 P4 監視空間を撮像する撮像部と、 P5 前記監視空間内の人物を検知する検知部と、 P6 前記音声入出力部を介して、前記キャラクタに前記検知された人物と対話させることによって第1応対を行う第1応対部と、 P7 前記第1応対部による、前記キャラクタと前記検知された人物との対話の対話状況を特定する特定部と、 P8 前記撮像部によって撮像された画像と前記対話状況とを対応付けて前記管理装置に送信する送信部と、 を備えることを特徴とする監視表示装置。 第3 特許異議申立書に記載された申立理由 特許異議申立書に記載された申立理由の概要は、以下のとおりである。 1.申立理由 (1)申立理由1 特許法第29条第2項(同法113条第2号) ・請求項1 ;甲第1号証記載事項、甲第2号証記載事項から容易想到。 ・請求項2 ;甲第1号証記載事項、甲第2号証記載事項から容易想到。 ・請求項3 ;甲第1号証記載事項、甲第2号証記載事項から容易想到。 ・請求項4 ;甲第1号証記載事項、甲第2号証記載事項から容易想到。 ・請求項5 ;甲第1号証記載事項、甲第2号証記載事項及び甲第3号証記載事項から容易想到。 ・請求項6 ;甲第1号証記載事項、甲第2号証記載事項及び甲第4号証記載事項、又は甲第1号証記載事項、甲第2号証記載事項、甲第3号証記載事項及び甲第4号証記載事項から容易想到。 ・請求項7 ;甲第1号証記載事項、甲第2号証記載事項から容易想到。 (2)申立理由2 特許法第36条第4項第1号(同法第113条第4号) ・請求項1−7 ;「キャラクタが人物と対話する」旨の記載があるが、キャラクタは表示物にすぎず、人物と対話することができない。このため、どのようにしてキャラクタが人物と対話するのか不明であり、実施可能要件を満たさない。 (3)申立理由3 特許法第36条第6項第1号(同法第113条第4号) ・請求項1−7 ;「キャラクタが人物と対話する」旨の記載があるが、キャラクタは表示物にすぎず、人物と対話することができない。ここで、請求項の文言を参照すると、管理表示装置を操作する操作員がキャラクタに成りすまして人物と対話する場合を含むものと考えられるが、この点は本件特許明細書に記載されておらず、サポート要件を満たさない。 (4)申立理由4 特許法第36条第6項第2号(同法第113条第4号) ・請求項1−7 ;「キャラクタが人物と対話する」旨の記載があるが、キャラクタは表示物にすぎず、人物と対話することができない。このため、いかにしてキャラクタが人物と対話するのか明確でない。 2.証拠方法 (1) 甲第1号証:特開2007−190659号公報 (2) 甲第2号証:特開2018−77556号公報 (3) 甲第3号証:特開2018−27613号公報 (4) 甲第4号証:特開2006−154724号公報 (特許異議申立書第26ページ 「5 証拠方法」) 第4 各甲号証の記載事項及び各甲号証に記載される発明又は技術 1 甲第1号証 (1)甲第1号証には、以下の記載がある。(下線は合議体が付した。以下同じ。) 「【0002】 従来のこの種のロボット遠隔操作システムが、たとえば特許文献1ないし3に開示される。特許文献1の技術は、警備などに利用されるロボットを遠隔操作するためのロボット遠隔操作システムである。当該ロボットは基本的には自律行動を行い、操作装置ではロボットのカメラで撮影された画像が表示される。オペレータは、画像に基づいてロボットの状態を監視し、また、操作レバーによって自律、自律遠隔協調または完全遠隔モードを切り替えることができる。自律モードでは、ロボットは、不審人物、炎または煙等を検出したとき、その異常現象に対応する動作をすることができる。自律遠隔協調モードでは、ロボットは、遠隔操作に基づいて自律動作を修正することができる。また、完全遠隔モードでは、ロボットは、完全遠隔作業が終了したときに自律モードに復帰可能か否かを判定し、可能であれば自律モードに自動復帰し、不可能であれば操作装置へ異常を通知する。」 「【0026】 図1を参照して、この実施例のロボット遠隔操作システム10は、ネットワーク100を介して接続された、複数のロボット12,14、中央制御装置16および操作端末18を含む。 「【0029】 図2は、この実施例のロボット12の外観を示す正面図であり、この図2を参照して、ロボット12のハードウェアの構成について説明する。ここで、ロボット14は、ロボット12と同じ構成であるため、ロボット14についての説明は省略する。」 「【0033】 台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット12の周囲の主として人との距離を計測するものである。」 「【0036】 上部胴体36には、1つの全方位カメラ42が設けられる。全方位カメラ42はたとえば背面側上端部のほぼ中央から延びる支柱44上に設置される。全方位カメラ42は、ロボット12の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体36の正面側のほぼ中央には、1つのマイク46が設けられる。マイク46は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。」 「【0042】 上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット12が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ66は、ロボット12の他の部位、たとえば胴体などに設けられてもよい。」 「【0044】 眼カメラ48は、ロボット12に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。」 「【0047】 図3はロボット12の電気的な構成を示すブロック図であり、この図3を参照して、ロボット12は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。」 「【0049】 メモリ76は、図示は省略するが、ROMやHDDおよびRAMを含み、ROMやHDDにはロボット12の動作を制御する制御プログラムが予め記憶される。制御プログラムには、たとえば、各センサ28,32,46,58またはカメラ42,48による検知情報を検出する検出プログラム、必要に応じてオペレータを呼び出すための呼出プログラム、外部コンピュータすなわち中央制御装置16あるいは操作端末18との間で動作に必要なデータを送受信するための通信プログラム、自律制御により自身の動作を制御する自律制御プログラムおよび受信した操作コマンド情報に基づいて自身の動作を制御する遠隔制御プログラムなどがある。お辞儀などの個々のコミュニケーション行動は、モジュール化された各行動プログラムによって実現され、メモリ76には複数の行動プログラムが各識別情報(操作コマンド)に対応付けて記憶されてよい。CPU72は複数のルールと現在の状況に基づいて次の行動を決定していくことでコミュニケーション行動を自律制御できる。また、メモリ76には各行動を実行する際に発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。また、RAMはワークメモリやバッファメモリとして用いられる。」 「【0056】 また、CPU72は、バス74を介して通信LANボード94および無線通信装置96に接続される。CPU72は、通信LANボード94および無線通信装置96を用いて、たとえば無線LANアクセスポイントを介してLAN,インターネットのようなネットワーク100に通信接続する。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、ネットワーク100を介して中央制御装置16もしくは操作端末18に送信させる。具体的には、通信LANボード94は、全方位カメラ42および眼カメラ48によって検知した視覚情報やマイク46によって検知した聴覚情報などの検知情報を中央制御装置16もしくは操作端末18に送信させる。また、通信LANボード94は、無線通信装置96を介して操作端末18からの操作コマンド情報を受信し、受信した操作コマンド情報をCPU72に与える。なお、ロボット12が移動不可能に設置されている場合、ネットワーク100へは有線で接続されてもよい。また、ロボット12と中央制御装置16もしくは操作端末18とが無線により直接通信するように構成してもよい。」 「【0058】 図1に戻って、中央制御装置16は、当該遠隔操作システム10におけるオペレータの呼び出しを制御するコンピュータであり、ロボット12および操作端末18の状態を示す情報を管理する。中央制御装置16は、図示は省略するが、CPUを含み、CPUにはメモリやデータベース、通信装置などが接続される。中央制御装置16は、通信装置を介してネットワーク100に有線または無線で接続されている。」 「【0060】 また、データベースには、各ロボット12の情報を示すロボット情報テーブルおよび各操作端末18の情報を示すオペレータ端末情報テーブルが記憶される。また、イベント会場や会社等に存在する人間の情報(たとえば無線タグの識別情報、使用言語や行動履歴)なども記憶されている。 【0061】 ロボット情報テーブルには、図4に示すように、ロボット名、状態、位置および対話相手などの情報が登録される。これらの情報はロボット12の識別情報に対応付けて記憶されている。ロボット名は、当該ロボット12の名前(たとえば、R1,R2)を画面に表示する際に使用され得る。状態を示す情報としては、当該ロボット12の現在の状態が登録される。具体的には、「busy」(たとえば、案内や受付の状況において人間と対話などのコミュニケーション行動を実行している状態)、もしくは「idle」(たとえば、人間と対話などのコミュニケーション行動を実行していない状態、すなわち、空いている状態)が登録される。位置を示す情報としては、当該ロボット12が配置されている現在位置の情報が登録される。具体的には、当該ロボット12の配置された建物や会場などの場所を示す情報(たとえば、ATR(京都)受付、X社(東京)受付)、および当該場所において当該ロボット12が現在存在している位置の座標(たとえば、「120,140」)が登録される。対話相手を示す情報としては、当該ロボット12が対話などのコミュニケーション行動を実行している人間の情報が登録される。具体的には、対話相手の識別情報(ID)に対応付けて、名前(たとえば山田太郎)、使用言語(たとえば日本語)および現在位置(座標)などが登録される。また、対話相手がいない場合は「null」(すなわち、コミュニケーション行動を行う対象が存在しない)と登録される。 【0062】 中央制御装置16は、各ロボット12との通信によって、当該ロボット12の状態、現在位置座標、対話相手のIDおよび位置などの情報をたとえば一定時間ごとに取得して、このロボット情報テーブルを生成し更新する。なお、上述したように、データベースには、会社や会場内に存在する人間の情報が予め記憶されているので、中央制御装置16は、ロボット12から対話相手の識別情報(ID)を受信すると、この識別情報に基づいて当該人間の名前、使用言語などの情報を読み出し、ロボット情報テーブルに登録する。図4には示していないが、たとえば、対話相手の来訪回数や来訪してからの経過時間、ロボット12が当該相手に既に実行した行動の履歴(たとえば、挨拶を済ませたなど)などの情報も必要に応じてデータベースから取得されて適宜登録される。なお、ロボット情報テーブルには、ロボットのアドレス(IPアドレス)も登録されてよい。」 「【0071】 ロボット12には、図示は省略するが、オペレータ呼出条件が予めメモリ76に記憶されている。オペレータ呼出条件が、ロボット12において満足すると判定されたとき、オペレータが呼び出される。オペレータ呼出条件は、ロボット12が必要に応じてオペレータを呼び出すための条件である。この呼出条件によって、ロボット12にトラブルが生じたり、コミュニケーションでより細やかな対応が必要とされたりする状況などになったか否かが判定される。呼出条件は、各種センサの出力情報を元に判定される条件であってよい。たとえば、条件の1つは、音声認識で所定のキーワード(「責任者を呼んで」など)が検出されたことであってよい。キーワードとしては、ロボット12が相手の意図を分かっていないことを伝えるワード、たとえば「違う」、「そうじゃないんだけど」もしくは「わからないかなあ」も考えられる。また、他の条件は、超音波距離センサ32で取得された距離が1m以内である状態が5分以上になったこと(すなわち、人がロボット12と長い間対話している状態)であってよい。さらにまた、他の条件は、特定のIDの無線タグを検出したこと(たとえばVIPとして登録された人が現れたこと)であってもよい。なお、呼出条件としては、適宜、様々な条件が設定され得る。たとえば、人の顔表情認識で怒りが検出されたこと、顔同定機能で特定の人を検出したことが考えられる。なお、他の実施例では、呼出条件として、ロボット12または周囲の環境に設けられた他のセンサの出力に基づく条件が設定されてよい。たとえば、オペレータ呼出ボタンがロボット12または周囲の環境に設けられてよい。また、体表に設けた触覚センサ(たとえば皮膚センサ)で殴られた場合の反応が検出されたこと、赤外センサで長時間連続して人が検知されたこと、環境の混雑センサで一定以上の混雑度が検出されたことなども考えられる。 【0072】 ロボット12のCPU72は、オペレータ呼出条件が満たされたと判断すると、オペレータを呼び出す要求を、ネットワーク100を介して中央制御装置16に送信する。 【0073】 中央制御装置16のCPUは、ロボット12から、オペレータの呼出要求を受けると、ロボット情報テーブルおよびオペレータ端末情報テーブルに基づいて最も適切な操作端末18すなわちオペレータを選択する。中央制御装置16のメモリには、適切な操作端末18を選択するための条件が記憶されており、複数の操作端末18の中から当該条件に適合する操作端末18が選択される。」 「【0082】 中央制御装置16は、ロボット12の呼出要求に応じて操作端末18を選択すると、遠隔操作を開始するための情報を、呼出要求を送信した要求ロボット12および選択された操作端末18の少なくとも一方に送信し、遠隔操作の開始を指示する。すなわち、中央制御装置16は、当該操作端末18に当該ロボット12の遠隔操作を依頼する。具体的には、選択した操作端末18に対して、呼出要求をしたロボット12に関する情報(名前、位置、対話相手、アドレスなど)を含む遠隔操作開始指示を送信する。一方、呼出要求をしたロボット12に対しては、中央制御装置16は、呼出応答を送信して選択した操作端末18を紹介する。具体的には、選択した操作端末18のアドレスなどの情報を含む遠隔操作開始指示を送信する。このような呼出応答を受信したロボット12は、操作端末18に対して、当該ロボット12の眼カメラ48が取得した画像情報およびマイク46が取得した聴覚情報などを送信する。」 「【0084】 操作端末18は、中央制御装置16からロボット12の遠隔操作の依頼を受けると、表示装置にたとえば図6に示すような遠隔操作画面を表示する。これによって、当該操作端末18のオペレータにロボット12から呼び出しがあったことを知らせることができる。なお、他の方法、たとえば操作端末18のスピーカからの音声出力によって、オペレータに遠隔操作の必要性を通知するようにしてもよい。 【0085】 この遠隔操作画面では、図6に示すように、たとえば、ロボットカメラ画像、ロボット情報および操作パネルが表示される。 【0086】 ロボットカメラ画像には、ロボット12から受信した眼カメラ48の撮影画像が表示される。これによって、オペレータは、ロボット12の眼カメラ48が捕らえている画像、たとえば対話している人間をリアルタイムで見ることができる。 【0087】 ロボット情報には、ロボット12自体の情報、当該ロボット12の状況および対話相手の情報などが表示される。具体的には、当該ロボット12の配置された場所(施設、会場、会社など)、名前(もしくは識別情報)、配置された場所の地図および対話している人間の情報が表示される。地図には、ロボット12および対話相手を示すアイコンが各存在位置に表示される。これによって、ロボット12が設置場所のどこに存在しているのか、対話相手がロボット12に対してどこに存在しているのかなどを、オペレータは容易に把握することができる。なお、操作端末18は、地図情報を予め記憶しておいてもよいし、中央制御装置16からロボットに関する情報とともに受信するようにしてもよい。また、ロボット12および対話相手の位置は、たとえばロボット12から一定時間ごとに操作端末18に送信される。ロボット12は初期の配置位置および向きを記憶しているので、自分の現在の位置および向きを常に把握している。また、ロボット12は、超音波距離センサ32の出力情報と自分の位置などから対話相手のおよその位置を推定できる。また、地図には、その場所に存在する対話相手以外の人間を示すアイコンも表示されてよい。この場合には、オペレータはその場所におけるロボット12の状況をさらに詳細に知ることができる。 「【0089】 また、対話している人間の情報としては、名前、所属(たとえば、受付の人間や来客)、来訪回数、前回の来訪日、今回の来訪後の経過時間およびロボット12が当該相手に既に行ったコミュニケーション行動の履歴などが表示される。これによって、オペレータは、ロボット12の対話相手の情報を知ることができる。対話相手の情報は、中央制御装置16から操作端末18に送信される。なお、これらオペレータに提示される情報は一例であり、ロボット情報には適宜適切な情報が表示される。このようなロボット情報によって、オペレータは、ロボット12および対話相手の情報ならびに両者の置かれている状況などを容易に把握することができる。」 「【0091】 このような遠隔操作画面が、ロボット12の遠隔操作依頼を受けた操作端末18の表示装置に表示される。これによって、オペレータは、ロボット12の撮影画像、当該ロボット12の置かれている状況、対話相手の情報などを見たり、当該ロボット12の取得音声を聞いたりして、ロボット12の現在の状況を容易にかつ速やかに把握することができる。したがって、オペレータは、遠隔操作画面でロボット12の状況を確認しながら遠隔操作の必要性を容易に判断することができ、遠隔操作の必要があると判断したときには操作パネルによってロボット12の動作の遠隔操作を行うことができる。」 「【図1】 」 「【図2】 」 「【図3】 」 「【図6】 」 (2)上記(1)の段落【0002】には、「従来のこの種のロボット遠隔操作システム」として「警備などに利用されるロボットを遠隔操作するためのロボット遠隔操作システム」があることが記載されていること、図6によれば、遠隔操作画面には、ロボットカメラ画像とロボット情報の対話者に「挨拶済」と表示されること及び上記(1)の記載とから、甲第1号証には、ロボット遠隔操作システムに関する以下の発明(以下、「甲1発明」という。)が記載されている。(符号a−fは合議体が付した。以下、「構成a」−「構成f」等という。また、各構成の末尾に、対応する段落番号や図番号を付した。) 「a ネットワーク100を介して接続された、警備などに利用される複数のロボット12,14、中央制御装置16および操作端末18を含むロボット遠隔操作システム10であって(【0002】、【0026】、【図1】)、 b ロボット14は、ロボット12と同じ構成であり(【0029】)、 c ロボット12は、 c1 ロボット12の周囲の人との距離を計測する超音波距離センサ32と(【0033】、【図2】、【図3】)、 c2 周囲のコミュニケーション対象である人の声を取り込むマイク46と(【0036】、【図2】、【図3】)、 c3 周辺の人に対して音声によってコミュニケーションを取るために用いられるスピーカ66と(【0042】、【図2】、【図3】)、 c4 接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む眼カメラ48と(【0044】、【図2】、【図3】)、 c5 バス74を介して、メモリ76に接続される、全体を制御するCPU72と(【0047】、【図3】)、 c6 CPU72から送られる送信データを、ネットワーク100を介して中央制御装置16もしくは操作端末18に送信する無線通信装置96と(【0056】、【図3】)、 を備え、 c51 CPU72は、複数のルールと現在の状況に基づいて次の行動を決定していくことでコミュニケーション行動を自律制御でき(【0049】)、 c52 メモリ76は、各行動を実行する際に発生すべき音声または声の音声データ(音声合成データ)を記憶し(【0049】)、 d 中央制御装置16は、オペレータの呼び出しを制御するコンピュータであり、ロボット12および操作端末18の状態を示す情報を管理し、CPUを含み、CPUにはメモリやデータベース、通信装置が接続され(【0058】)、 d1 データベースには、各ロボット12の情報を示すロボット情報テーブルおよびイベント会場や会社等に存在する人間の情報(無線タグの識別情報、使用言語や行動履歴)が記憶され【0060】、 d11 ロボット情報テーブルには、ロボット12の識別情報に対応付けて記憶される状態および対話相手の情報が登録され(【0061】)、 d111 状態を示す情報としては、当該ロボット12の現在の状態である、「busy」(案内や受付の状況において人間と対話などのコミュニケーション行動を実行している状態)、もしくは「idle」(人間と対話などのコミュニケーション行動を実行していない状態)が登録され(【0061】)、 d112 対話相手を示す情報としては、当該ロボット12が対話などのコミュニケーション行動を実行している人間の情報として、対話相手の識別情報(ID)に対応付けて、名前、使用言語および現在位置などが登録され(【0061】)、 d113 中央制御装置16は、各ロボット12との通信によって、当該ロボット12の状態、現在位置座標、対話相手のIDおよび位置などの情報を一定時間ごとに取得して、ロボット情報テーブルを生成し更新し(【0062】)、 d114 データベースには、会社や会場内に存在する人間の情報が予め記憶されているので、中央制御装置16は、ロボット12から対話相手の識別情報(ID)を受信すると、この識別情報に基づいて当該人間の名前、使用言語などの情報を読み出し、ロボット情報テーブルに登録し、ロボット12が当該相手に既に実行した行動の履歴(挨拶を済ませた)の情報もデータベースから取得されて登録され(【0062】)、 c521 ロボット12には、オペレータ呼出条件が予めメモリ76に記憶され(【0071】)、 c511 オペレータ呼出条件が、ロボット12において満足すると判定されたとき、オペレータが呼び出され、条件の1つは、音声認識で所定のキーワードが検出されたことであり(【0071】)、 c512 ロボット12のCPU72は、オペレータ呼出条件が満たされたと判断すると、オペレータを呼び出す要求を、ネットワーク100を介して中央制御装置16に送信し(【0072】)、 d2 中央制御装置16のCPUは、ロボット12から、オペレータの呼出要求を受けると、ロボット情報テーブルおよびオペレータ端末情報テーブルに基づいて最も適切な操作端末18を選択し(【0073】)、 d3 中央制御装置16は、ロボット12の呼出要求に応じて操作端末18を選択すると、遠隔操作を開始するための情報を、呼出要求を送信した要求ロボット12および選択された操作端末18の少なくとも一方に送信し、遠隔操作の開始を指示し、当該操作端末18に当該ロボット12の遠隔操作を依頼し、選択した操作端末18に対して、呼出要求をしたロボット12に関する情報を含む遠隔操作開始指示を送信し、呼出要求をしたロボット12に対しては、呼出応答を送信して選択した操作端末18を紹介し、選択した操作端末18のアドレスなどの情報を含む遠隔操作開始指示を送信し、呼出応答を受信したロボット12は、操作端末18に対して、当該ロボット12の眼カメラ48が取得した画像情報を送信し(【0082】)、 e 操作端末18は、中央制御装置16からロボット12の遠隔操作の依頼を受けると、表示装置に遠隔操作画面を表示し(【0084】、【図6】)、 e1 遠隔操作画面では、ロボットカメラ画像、ロボット情報および操作パネルが表示され、遠隔操作画面には、ロボットカメラ画像とロボット情報の対話者に「挨拶済」と表示され(【0085】、【図6】)、 e11 ロボットカメラ画像には、ロボット12から受信した眼カメラ48の撮影画像が表示され、オペレータは、ロボット12の眼カメラ48が捕らえている画像中に対話している人間をリアルタイムで見ることができ(【0086】、【図6】)、 e12 ロボット情報には、対話相手の情報として、対話している人間の情報が表示され(【0087】、【図6】)、 e121 対話している人間の情報としては、ロボット12が当該相手に既に行ったコミュニケーション行動の履歴(挨拶済)が表示され、対話相手の情報は、中央制御装置16から操作端末18に送信され(【0089】、【図6】)、 f オペレータは、遠隔操作画面でロボット12の状況を確認しながら遠隔操作の必要性を容易に判断することができ、遠隔操作の必要があると判断したときには操作パネルによってロボット12の動作の遠隔操作を行うことができる(【0091】、【図6】)、 ロボット遠隔操作システム10。」 2 甲第2号証 (1)甲第2号証には、以下の記載がある。 「【0012】 <1>全体構成 本発明に係る据え置き型警備装置(以下、単に「警備装置」ともいう)は、いわゆる立て看板型の形状を呈し、設置箇所まで運搬して常置して使用するものである。 本発明に係る警備装置Aは、ディスプレイ10と、監視カメラ20と、制御手段30と、を少なくとも含んで構成する。 以下、各構成要素の詳細について説明する。 【0013】 <2>ディスプレイ ディスプレイ20は、制御手段30による指令によって、各種画面を表示するための部材である。 本実施例では、人によるタッチ操作が可能なLCDパネルを用いている。 これは、立った状態の人物による操作のしやすさや、後述する警備員表示画面Bにおいて表示された警備員を略等身大で表示するに当たって、警備員が実際に立哨警備を行っているかのように模擬するためである。」 「【0016】 <4.1>警備員表示部 警備員表示部31は、ディスプレイ10に警備員の姿を表示するための要素である。 ディスプレイ10に表示する警備員の姿は、少なくとも警備員の起立姿勢のうち、少なくとも上半身部分を含んだ態様であり、さらに当該警備員が、略等身大かそれ以上の大きさで表示されることが好ましい。 上半身部分とは、人体の腰から上の高さの部分である。 すなわち、設置箇所の地面で警備員が実際に立哨警備を行っている状態を模擬した態様の大きさ及び高さとしつつ、少なくとも警備員の上半身が確実に表示されている態様であることが好ましい。」 「【図1】 」 (2)甲2技術 上記(1)の摘記事項から、甲第2号証には、次の技術(以下「甲2技術」という。)が記載されている。 「警備装置において(【0012】)、 警備装置は、ディスプレイ10を含んで構成され(【0012】、【図1】)、 ディスプレイ10の警備員表示画面Bにおいて表示された警備員を略等身大で表示するに当たって、警備員が実際に立哨警備を行っているかのように模擬し(【0013】、【図1】)、 ディスプレイ10に表示する警備員の姿は、少なくとも警備員の起立姿勢のうち、少なくとも上半身部分を含んだ態様であり、さらに当該警備員が、略等身大かそれ以上の大きさで表示され、 設置箇所の地面で警備員が実際に立哨警備を行っている状態を模擬した態様の大きさ及び高さとしつつ、少なくとも警備員の上半身が確実に表示されている態様である(【0016】、【図1】)こと。」 第5 当審の判断 1 申立理由1について (1)本件特許発明1について ア 対比 本件特許発明1と甲1発明とを対比する。 (ア)構成Aについて a 構成aには、「ロボット遠隔操作システム10」は、「ネットワーク100を介して接続された、警備などに利用される複数のロボット12,14、中央制御装置16および操作端末18を含む」という構成がある。 b 「警備などに利用される複数のロボット12,14」は、構成c4のように「眼カメラ48」を備え、構成e1及びe11のように「遠隔操作画面」に「ロボット12から受信した眼カメラ48の撮影画像が表示され、オペレータは、ロボット12の眼カメラ48が捕らえている画像である対話している人間をリアルタイムで見ることができ」ることから、オペレータがロボット12の眼カメラ48で撮影した画像を監視できるようにするためのものといえ、「警備などに利用される複数のロボット12,14」は、構成Aの「複数の監視表示装置」と「複数の監視装置」という点で共通しているといえる。 c 「中央制御装置16」は、構成dのように「ロボット12および操作端末18の状態を示す情報を管理」し、「操作端末18」は、構成e、e1、fによると「表示装置に遠隔操作画面を表示」し、「遠隔操作画面」には、「操作パネル」が表示され、「操作パネルによってロボット12の動作の遠隔操作を行うことができる」ことから、「中央制御装置16及び操作端末18」は、構成Aの「管理装置」に相当するといえる。 d 「複数のロボット12,14」は、構成aによると「警備などに利用される」ことから、甲1発明の「ロボット遠隔操作システム10」は、構成Aの「警備システム」に相当するといえる。 e そして、「複数のロボット12,14、中央制御装置16および操作端末18」は、構成aによると「ネットワーク100を介して接続され」るから、上記b−dを考慮すると、甲1発明は、「複数の監視装置と、前記複数の監視装置と通信可能に接続された管理装置とを有する警備システム」という点で本件特許発明1と共通する。一方、「監視装置」が、構成Aでは、「監視表示装置」であるのに対し、甲1発明では、「ロボット」であって「表示」する構成を有していない点で相違する。 (イ)構成Cについて 上記(ア)eのように、甲1発明では、「ロボット」が「表示」する構成を有していないことから、本件特許発明1と甲1発明とは、甲1発明のロボット12に構成Cの「立哨する警備員を模したキャラクタの画像を表示する第1表示部」がない点で相違する。 (ウ)構成Dについて 構成c3の「周辺の人に対して音声によってコミュニケーションを取るために用いられるスピーカ66」及び構成c2の「周囲のコミュニケーション対象である人の声を取り込むマイク46」は、構成Dの「音声の出力及び周囲の音声の入力をする音声入出力部」に対応するが、出力する音声が、構成Dでは、「キャラクタの音声」であるのに対し、甲1発明では、構成c52のように、ロボット12の「各行動を実行する際に発生すべき音声または声の音声データ(音声合成データ)」であって「キャラクタの音声」ではない点で相違する。 (エ)構成Eについて 構成c4の「接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む眼カメラ48」は、上記(ア)bのように、眼カメラ48が捕らえている画像をオペレータが監視できることから、構成Eの「監視空間を撮像する撮像部」に相当するといえる。 (オ)構成Fについて 構成c1の「ロボット12の周囲の人との距離を計測する超音波距離センサ32」は、図6を参照すると、ロボット12の前方の人との距離を計測し、眼カメラ48もロボット12の前方の人を撮影するから、上記(エ)の眼カメラ48が「監視空間を撮像する」ことを考慮すると、甲1発明のロボット12は構成Fの「監視空間内の人物を検知する検知部」に相当する構成を備えたものといえる。 (カ)構成Gについて a 上記(ウ)のように「音声入出力部」である「スピーカ66」及び「マイク46」は、人とコミュニケーションを取る際に使用される。 b 上記(オ)のように「人物を検知する検知部」でロボット12の前方の人物を検知する。 c 構成c51によると「CPU72」は、「複数のルールと現在の状況に基づいて次の行動を決定していくことでコミュニケーション行動を自律制御でき」る。 d 構成d111によると「コミュニケーション行動」には、「人間と対話」がある。 e そして、甲1発明の「CPU72」は、上記aの「音声入出力部」を介して、上記bの検知部で「検知」された「人物」と上記dのように「対話」させることによって、上記cのように「コミュニケーション行動を自律制御」できることから、構成Gとは、「音声入出力部を介して、検知された人物と対話させることによって第1応対を行う第1応対部」という点で共通する。一方、音声入出力部を介して行う「対話」が、構成Gでは、「キャラクタ」と行うのに対し、甲1発明では、「キャラクタ」と行うものではない点で相違する。 (キ)構成Hについて a 構成d114には、「ロボット12が当該相手に既に実行した行動の履歴(挨拶を済ませた)の情報もデータベースから取得されて登録され」るという構成がある。 b 「データベース」は、構成dのように「中央制御装置16」の「CPU」に接続されるから、「中央制御装置16」に含まれるといえる。 c 「データベース」には、構成d1のように「ロボット情報テーブル」及び「イベント会場や会社等に存在する人間の情報」である「行動履歴」が記憶される。 d 「ロボット情報テーブル」には、構成d11のように「ロボット12の識別情報に対応付けて記憶される状態および対話相手の情報」が登録される。 e 「状態を示す情報」としては、構成d111のように「ロボット12の現在の状態である、「busy」(案内や受付の状況において人間と対話などのコミュニケーション行動を実行している状態)、もしくは「idle」(人間と対話などのコミュニケーション行動を実行していない状態)」が登録され、構成d113によると「中央制御装置16」は、「各ロボット12との通信によって、当該ロボット12の状態」を示す「情報を一定時間ごとに取得」する。 f 当該「状態を示す情報」は、ロボット12が人間と対話などのコミュニケーション行動を実行している状態か否かすなわち対話状況を示す情報であるから、ロボット12には、当該対話状況を特定するための構成があるといえる。そして、対話状況を示す情報として、上記「busy」、もしくは「idle」を示す情報を生成し、中央制御装置16は一定時間ごとにこれらの対話状況を示す情報を取得して登録するといえることから、上記対話状況を特定するための構成は、構成Hの「人物との対話状況を特定する特定部」に対応する構成であるといえる。 g 「対話相手を示す情報」としては、構成d112のように「ロボット12が対話などのコミュニケーション行動を実行している人間の情報として、対話相手の識別情報(ID)に対応付けて、名前、使用言語および現在位置など」が登録される。 h 構成d114によると「データベースには、会社や会場内に存在する人間の情報が予め記憶されているので、中央制御装置16は、ロボット12から対話相手の識別情報(ID)を受信すると、この識別情報に基づいて当該人間の名前、使用言語などの情報を読み出し、ロボット情報テーブルに登録」するから、上記cのように「イベント会場や会社等に存在する人間の情報」である「行動履歴」もデータベースに予め記憶され、ロボット12から対話相手の識別情報(ID)を受信すると、この識別情報に基づいて構成d114の「行動の履歴(挨拶を済ませた)」が「データベース」から、記憶された「イベント会場や会社等に存在する人間の情報」である「行動履歴」として読み出されて「データベース」の「ロボット情報テーブル」に登録されるといえる。 i 「行動の履歴(挨拶を済ませた)」は、「挨拶」をロボット12が対話相手に行った対話状況の履歴であり、当該対話状況をロボット12で特定していることは明らかであるから、当該対話状況である「挨拶」を特定する構成がロボット12にあり、当該構成もまた上記fで述べた構成と同様に構成Hの「人物との対話状況を特定する特定部」に対応する構成といえる。 j 構成c511には、「ロボット12には、オペレータ呼出条件が予めメモリ76に記憶され」という構成があり、構成c511には、「オペレータ呼出条件が、ロボット12において満足すると判定されたとき、オペレータが呼び出され、条件の1つは、音声認識で所定のキーワードが検出されたこと」という構成があり、構成c512には、「ロボット12のCPU72は、オペレータ呼出条件が満たされたと判断すると、オペレータを呼び出す要求を、ネットワーク100を介して中央制御装置16に送信し」という構成がある。 k 当該「オペレータ呼出条件」である「音声認識で所定のキーワードが検出されたこと」を「満足すると判定」することは、所定のキーワードが検出されたことを特定することであり、対話状況の特定といえ、当該判定は、上記jのように「CPU72」によって行われるから、当該「CPU72」もまた上記f、iで述べた構成と同様に構成Hの「人物との対話状況を特定する特定部」に相当するといえる。 l 上記(カ)のように、ロボット12で行う対話は、構成Gの「第1応対部」と共通する「CPU72」で行われるから、上記f及びhの「特定」も「CPU72」で行われるといえる。 m してみると、「CPU72」は、構成Gの「第1応対部」に共通する構成を備えることに加えて、構成Hの「第1応対部による、前記検知された人物との対話の対話状況を特定する特定部」を備えるという点で共通する。一方、「検知された人物との対話」が、構成Hでは、「キャラクタ」と行うのに対し、甲1発明では、「キャラクタ」と行うものではない点で相違する。 (ク)構成Iについて a 構成d3によると「ロボット12は、操作端末18に対して、当該ロボット12の眼カメラ48が取得した画像情報を送信」する。 b 構成d113によると「中央制御装置16」は、「各ロボット12との通信によって、当該ロボット12の状態、現在位置座標、対話相手のIDおよび位置などの情報を一定時間ごとに取得」するから、上記(キ)fを考慮すると、「ロボット12の状態」を示す情報であって、対話状況を示す情報である「busy」(案内や受付の状況において人間と対話などのコミュニケーション行動を実行している状態)、もしくは「idle」(人間と対話などのコミュニケーション行動を実行していない状態)がロボット12から送信されるといえる。 c 上記(キ)iによると対話状況である「挨拶」を済ませたという行動の履歴は、上記(キ)hによると「データベースに予め記憶され」るが、ロボット12が「挨拶」を行ったことは、中央制御装置16において、ロボット12からその情報が送信されないと分からないから、対話状況である「挨拶」を行った情報がロボット12から中央制御装置16に送信されるといえる。 d 構成c511によると「オペレータ呼出条件が、ロボット12において満足すると判定されたとき、オペレータが呼び出され、条件の1つは、音声認識で所定のキーワードが検出されたことであ」るから、オペレータの呼び出しは、上位(キ)kを考慮すると、「人物との対話状況を特定」した結果によって行われることである。 e 構成d2によると「中央制御装置16のCPUは、ロボット12から、オペレータの呼出要求を受ける」ことから、ロボット12は、オペレータの呼出要求を送信しており、これは、上記dを考慮すると、「対話状況」を送信することといえる。 f 構成c6によると「無線通信装置96」は、「CPU72から送られる送信データを、ネットワーク100を介して中央制御装置16もしくは操作端末18に送信する。」 c そして、上記(ア)cによると「中央制御装置16及び操作端末18」は、構成Aの「管理装置」に相当するといえるから、上記b、c、e及びfと上記(エ)の「眼カメラ48」が、構成Eの「撮像部」に相当することを考慮すると、「無線通信装置96」は、「前記撮像部によって撮像された画像と前記対話状況とを前記管理装置に送信する送信部」という点で共通する。一方、「前記管理装置」に「前記撮像部によって撮像された画像と前記対話状況とを」、構成Iでは、「対応づけて」「送信する」のに対し、甲1発明では、対応づけて送信するのか否か不明である点で相違する。 (ケ)構成Bについて a 構成bによると「ロボット14は、ロボット12と同じ構成であ」るから、「複数のロボット12,14」はそれぞれ同じロボットである。 b 構成cによると構成c1−構成c6の構成は、「ロボット12」が「備え」、上記(カ)及び(キ)によると「第1応対部」及び「特定部」と共通する「CPU72」も「ロボット12」が備える。 c 上記(ア)eによると「ロボット」は「監視装置」であって「表示」する構成を有していない。 d してみると、本件特許発明1と甲1発明とは、「前記複数の監視装置のそれぞれ」が第1表示部などの構成を備える点で共通する。一方、「監視装置」が、構成Bでは「監視表示装置」であるのに対し、甲1発明では「ロボット」であって「表示」する構成を有していない点で相違する。 (コ)構成Jについて a 構成eによると、「操作端末18」は、「表示装置に遠隔操作画面を表示」し、構成e1によると、「遠隔操作画面」では、「ロボットカメラ画像、ロボット情報」が「表示され」、「ロボットカメラ画像とロボット情報の対話者に「挨拶済」と表示され」、構成e11によると、「ロボットカメラ画像」には、「ロボット12から受信した眼カメラ48の撮影画像が表示され」、構成e12によると、「ロボット情報」には、「対話相手の情報として、対話している人間の情報が表示され」、構成e121によると、「対話している人間の情報」としては、「ロボット12が当該相手に既に行ったコミュニケーション行動の履歴(挨拶済)が表示され」る。 b 構成e11によると「ロボットカメラ画像には、ロボット12から受信した眼カメラ48の撮影画像が表示され」ることによって、「オペレータは、ロボット12の眼カメラ48が捕らえている画像である対話している人間をリアルタイムで見ることができ」、ることから、「ロボット12から受信した眼カメラ48の撮影画像」は、「リアルタイム」の画像である。 c 上記aのように操作端末18の遠隔操作画面に表示される「ロボット12が当該相手に既に行ったコミュニケーション行動の履歴(挨拶済)」は、上記(キ)iによると、「挨拶」が「対話状況」であり、上記(ク)cによると、対話状況である「挨拶」を行った情報がロボット12から中央制御装置16に送信され、構成e121によると、「対話相手の情報は、中央制御装置16から操作端末18に送信され」る。 d 構成d1及び構成d114によれば「イベント会場や会社等に存在する人間の情報」の「行動の履歴」である「挨拶を済ませた」は、上記(キ)hのように予め記憶されている「データベース」から読み出されて「ロボット情報テーブル」に登録され、上記cのように「対話相手の情報」として「中央制御装置16から操作端末18に送信され」、上記aのように「操作端末18」の「遠隔操作画面」の「ロボット情報」に、「対話相手の情報として」「表示され」る。 e そうすると、上記bの「ロボット12から受信した眼カメラ48の撮影画像」である「対話している人間」と上記dの「操作端末18」の「遠隔操作画面」の「ロボット情報」に、「対話相手の情報として」「表示され」る「挨拶を済ませた」とは、同じ対話相手のものであるから、上記「遠隔操作画面」に対応付けて表示されるといえる。 f ここで、上記(キ)fの「「busy」、もしくは「idle」を示す情報」及び上記(キ)kの「所定のキーワードが検出されたこと」は、「遠隔操作画面」に表示されないものの、上記eのように「挨拶を済ませた」は表示されることから、「遠隔操作画面」には、「対話状況」が表示されるといえる。 g そして、上記(ア)cによると、「中央制御装置16及び操作端末18」は、構成Aの「管理装置」に相当するといえるから、上記aの「操作端末18」は、「表示装置に遠隔操作画面を表示」すること、上記aの「ロボットカメラ画像」には、「ロボット12から受信した眼カメラ48の撮影画像が表示され」ること、上記(ケ)aの「複数のロボット12,14」はそれぞれ同じロボットであること及び上記eを考慮すると、本件特許発明1と甲1発明とは、「前記管理装置は、各監視装置から受信した画像と前記対話状況とをそれぞれ対応付けて表示する第2表示部を備える」点で共通する。一方、「監視装置」が、構成Jでは「監視表示装置」であるのに対し、甲1発明では「ロボット」であって「表示」する構成を有していない点で相違する。 以上のことから、本件特許発明1と甲1発明との一致点及び相違点は、以下のとおりである。 <一致点> A’ 複数の監視装置と、前記複数の監視装置と通信可能に接続された管理装置とを有する警備システムであって、 B’ 前記複数の監視装置のそれぞれは、 D’ 音声の出力及び周囲の音声の入力をする音声入出力部と、 E 監視空間を撮像する撮像部と、 F 前記監視空間内の人物を検知する検知部と、 G’ 前記音声入出力部を介して、前記検知された人物と対話させることによって第1応対を行う第1応対部と、 H’ 前記第1応対部による、前記検知された人物との対話状況を特定する特定部と、 I’ 前記撮像部によって撮像された画像と前記対話状況とを前記管理装置に送信する送信部と、を備え、 J’ 前記管理装置は、各監視装置から受信した画像と前記対話状況とをそれぞれ対応付けて表示する表示部を備える、 警備システム。 <相違点> (相違点1) 「監視装置」が、本件特許発明1では、「監視表示装置」であり、「第1表示部」を備えるのに対し、甲1発明では、「ロボット」であって「表示」する構成を有していない点。 (相違点2) 「監視装置のそれぞれ」が、本件特許発明1では「第1表示部」に「立哨する警備員を模したキャラクタの画像を表示」し、「音声入出力部」は、「前記キャラクタの音声の出力」をし、「第1応対部」は、「前記キャラクタに前記検知された人物と対話させることによって第1応対を行」い、「特定部」は、「前記キャラクタと前記検知された人物との対話の状況を特定する」のに対し、甲1発明では、キャラクタに関する構成がない点。 (相違点3) 「前記管理装置」に「前記撮像部によって撮像された画像と前記対話状況とを」、本件特許発明1では、「対応づけて」「送信する」のに対し、甲1発明では、対応づけて送信するのか否か不明である点。 イ 相違点についての判断 事案に鑑み、上記相違点のうち相違点1及び2について以下に検討する。 (ア)警備装置において、ディスプレイを備え、当該ディスプレイに警備員が立哨警備を行っているかのように表示することは、甲2技術に示されている。 (イ)しかし、甲1発明の「監視装置」は「ロボット」であって「表示」する構成を有しておらず、警備のために、ロボットを警備員を模した監視装置とする際には、ロボットそのものを警備員に模したものとすることは普通に考えられたとしても、甲1発明は、複数のロボットを遠隔操作する際に、オペレータが効率的に管理するもの(甲1号証【0005】、【0008】参照。)であるから、複数のロボットのうち一部又は全部を甲2技術のような立て看板型のディスプレイに変更する動機はないものといえる。 (ウ)さらに、甲1発明の監視装置はロボットの外観を呈することで、監視のためのものであることを周囲の人が認識できるものであり、当該ロボットの外観を呈した監視装置との音声を介したコミュニケーションを図る構成を有することで、監視及び周囲の人とのコミュニケーションの機能として完結しているといえる。そうすると、このような監視装置に対して、加えてロボットに監視のためのものであることを示すべく、立哨する警備員を模したキャラクタの画像を表示するための表示部を設けることや、キャラクタと周囲の人との対話を行うため構成を採用する動機はないものといえる。 (エ)してみると、甲1発明の「監視装置」に甲2技術を適用して「表示部」を設け、当該「表示部」に「立哨する警備員を模したキャラクタの画像を表示」させること、そして、「音声入出力部」は、「前記キャラクタの音声の出力」をし、「第1応対部」は、「前記キャラクタに前記検知された人物と対話させることによって第1応対を行」い、「特定部」は、「前記キャラクタと前記検知された人物との対話の状況を特定する」ことは、当業者が容易になし得ることとはいえない。 (オ)したがって、本件特許発明1は、少なくとも上記相違点1及び2について、甲1発明及び甲2技術に基づいて、当業者が容易に発明をすることができたものではない。 ウ 特許異議申立人の主張について (ア)特許異議申立人(以下、「申立人」という。)は、特許異議申立書の「3(4)ウ 本件特許発明と証拠に記載された発明との対比」の(ア)において、 「相違点:本件特許発明1は「C 立哨する警備員を模したキャラクタの画像を表示する第1表示部」を有するが、甲1発明には対応する構成が存在しない。 そこで、相違点1について検討するに、甲2発明における「ディスプレイ10」は、警備員があたかも設置場所で立哨警備を行っているかのように表示するものであるため、本件特許発明1における「第1表示部」に相当する。このため、本願特許発明1の第1表示部に対応する構成が甲第2号証に記載されていると言える。 甲2発明は対話システムに用いられるものであり、甲1発明と技術分野を一にするものであることから、甲2発明を甲1発明に適用することは、容易に想到し得るものである。」(特許異議申立書15ページ22行−16ページ5行) と主張する。 しかし、申立人が主張する一にする技術分野は、「対話システム」という非常に広い技術分野であって、このような広い技術分野を一にするだけで適用することが可能であるとすると、対話システムにおけるいかなる技術も適用することが可能となってしまうことから、技術分野以外にも適用するための動機が必要であると考えられるところ、上記イ(イ)及び(ウ)のように、複数のロボットに、立哨する警備員を模したキャラクタの画像を表示する表示部を設ける動機は考えられないことから、上記申立人の主張を採用することはできない。 (イ)申立人は、特許異議申立書の「3(4)ウ 本件特許発明と証拠に記載された発明との対比」の(イ)において、 「本件特許発明1と甲1発明とを対比すると、本件特許発明1には「G 前記音声入出力部を介して、前記キャラクタに前記検知された人物と対話させることによって第1応対を行う第1応対部」を有すると記載されているが、甲1発明には「キャラクタに人物と対話させる」とは記載されていない。 この点について検討すると、そもそも本件特許発明1のように「キャラクタが人物と対話する」ことは技術的に不可能である。キャラクタとは、小説、漫画、映画、アニメ、コンピュータゲーム、広告などのフィクションに登場する人物や動物などを表示部に表示した表示物に過ぎないものだからである。 ここで、本件特許発明1の構成要件Gは、「監視表示装置のCPUに人物と対話させることによって第1応答を行うことを意味する」と考えるか、「監視表示装置の操作員がキャラクタに成りすまして人物と対話することを意味する」と考えるしか無い。表示物であるキャラクタが能動的に人物と対話することなど不可能だからである。 ここで、本件特許発明1の構成要件Gが前者の意味であると仮定したならば、甲第1号証の「CPU72がコミュニケーション行動を自律制御する」構成と同一となる。一方、本件特許発明1の構成要件Gが後者の意味であると仮定した場合に、このような構成は本件特許明細書に記載されていない。このため、後者について論ずる余地は無い。」(特許異議申立書16ページ6行−23行) と主張する。 しかし、「キャラクタが人物と対話する」ようなインターフェースは、本件特許発明の出願当時、ゲーム、テーマパーク、アバタを介したチャットボット等で広く知られた一般的な技術であって、本件特許発明1の理解にあたり、当業者にとって「キャラクタが人物と対話する」とは、上記のような対話を行うことを特定するものであり、また、そのような技術は、本件特許明細書中に、本件特許明細書に接した当業者が実現可能な程度に開示されているものといえるから、上記申立人の主張を採用することはできない。 オ 小括 以上のとおり、本件特許発明1は、甲1発明及び甲2技術に基づいて当業者が容易に発明をすることができたものではない。 また、甲3号証及び甲第4号証にも、上記相違点1及び2の発明特定事項に関する記載はない。 (2)本件特許発明2−6について 本件特許発明2−6は、本件特許発明1の発明特定事項を全て含む発明であり、上記(1)と同様の理由により、当業者が容易に発明をすることができたものではない。 (3)本件特許発明7について 本件特許発明7は、本件特許発明1の警備システムの監視表示装置に関する発明であるが、少なくとも上記(1)アの相違点1及び2の点について、上記(1)と同様の理由により、当業者が容易に発明をすることができたものではない。 2 申立理由2−4について 申立理由2−4は、本件特許発明1−7に「キャラクタが人物と対話する」旨の発明特定事項があるが、キャラクタは表示物にすぎず、人物と対話することができないことにより生じる申立理由であると申立人は主張する(異議申立書第6ページ第8、9、13、14、19、20行)。 しかし、「キャラクタが人物と対話する」ことは、上記(1)ウ(イ)のように、本件特許発明の出願当時、ゲーム、テーマパーク、アバタを介したチャットボット等で広く知られた一般的な技術である。 したがって、本件特許1−7について、特許法第36条第4項第1号(同法第113条第4号)、特許法第36条第6項第1号(同法第113条第4号)及び特許法第36条第6項第2号(同法第113条第4号)に適合しないとする理由2−4によっては、本件特許の請求項1−7に係る特許を取り消すことはできない。 第6 むすび 以上のとおりであるから、特許異議申立書に記載された特許異議申立の申立理由1−4及び証拠によっては、本件特許の請求項1−7に係る特許を取り消すことはできない。 また、他に本件特許の請求項1−7に係る特許を取り消すべき理由を発見しない。 よって、結論のとおり決定する。 |
異議決定日 | 2023-04-07 |
出願番号 | P2019-083408 |
審決分類 |
P
1
651・
121-
Y
(H04N)
P 1 651・ 537- Y (H04N) P 1 651・ 536- Y (H04N) |
最終処分 | 07 維持 |
特許庁審判長 |
五十嵐 努 |
特許庁審判官 |
川崎 優 畑中 高行 |
登録日 | 2022-05-16 |
登録番号 | 7074716 |
権利者 | セコム株式会社 |
発明の名称 | 警備システム及び監視表示装置 |
代理人 | 南山 知広 |
代理人 | 三橋 真二 |
代理人 | 青木 篤 |
代理人 | 三浦 剛 |