• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 特17条の2、3項新規事項追加の補正 特許、登録しない(前置又は当審拒絶理由) B25J
審判 査定不服 5項独立特許用件 特許、登録しない(前置又は当審拒絶理由) B25J
審判 査定不服 4項4号特許請求の範囲における明りょうでない記載の釈明 特許、登録しない(前置又は当審拒絶理由) B25J
審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) B25J
審判 査定不服 特36条6項1、2号及び3号 請求の範囲の記載不備 特許、登録しない(前置又は当審拒絶理由) B25J
管理番号 1403152
総通号数 23 
発行国 JP 
公報種別 特許審決公報 
発行日 2023-11-24 
種別 拒絶査定不服の審決 
審判請求日 2022-04-04 
確定日 2023-10-19 
事件の表示 特願2021−512029「遠隔操作装置」拒絶査定不服審判事件〔令和 2年10月 8日国際公開、WO2020/203819〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 手続の経緯
本願は、2020年(令和2年)3月27日(優先権主張 平成31年3月29日)を国際出願日とする出願であって、その手続の経緯は以下のとおりである。
令和3年 8月27日付け:拒絶理由通知書
同年11月 4日 :意見書、手続補正書の提出
令和4年 1月 5日付け:拒絶査定
同年 4月 4日 :審判請求書、手続補正書の提出
同年11月10日付け:拒絶理由通知書
令和5年 1月16日 :意見書、手続補正書の提出
同年 2月15日付け:拒絶理由(最後の拒絶理由)通知書
同年 4月21日 :意見書、手続補正書の提出
同年 7月 7日 :電話応対
[応対記録(初回応対令和5年7月7日)の応対1]
同年 7月14日 :電話応対
[応対記録(初回応対令和5年7月7日)の応対2]

第2 令和5年4月21日にされた手続補正についての補正の却下の決定
[補正の却下の決定の結論]
令和5年4月21日にされた手続補正(以下「本件補正」という。)を却下する。

[理由]
1 本件補正について(補正の内容)
(1)本件補正後の特許請求の範囲の記載
本件補正により、特許請求の範囲の記載は、次のとおり補正された。(下線部は、補正箇所である。)

「 【請求項1】
作業現場においてワークに所定の作業を行う移動ロボットと当該移動ロボットの周囲の物体との距離を検出するセンサと、
前記作業現場の仮想三次元映像の視点を指定する視点指定部と、
前記センサの検出結果及び前記視点指定部が指定する視点に基づいて前記仮想三次元映像を生成する仮想映像生成部と、
前記仮想三次元映像を表示する表示部と、
前記移動ロボットを遠隔操作する操作信号を生成する操作部とを備え、
前記表示部は、ヘッドマウントディスプレイであり、
前記視点指定部は、ヘッドマウントディスプレイに組み込まれたモーションセンサであり、
前記仮想映像生成部は、前記モーションセンサで検出した視点指定信号に応じた前記仮想三次元映像を生成し、
前記表示部は、前記仮想三次元映像に前記作業現場の実映像を合成するとともに前記ワーク及び前記移動ロボット以外の領域かつ前記移動ロボットの移動方向の前方に前記移動ロボットの制御情報をはめ込んだ合成映像を表示する遠隔操作装置。
【請求項2】
前記仮想三次元映像は、前記移動ロボットのオブジェクトと前記移動ロボットが作業対象とするワークのオブジェクトとを含む、請求項1に記載の遠隔操作装置。」

(2)本件補正前の特許請求の範囲の記載
本件補正前の、令和5年1月16日にされた手続補正により補正された特許請求の範囲の記載は、次のとおりである。

「 【請求項1】
作業現場においてワークに所定の作業を行う移動ロボットと当該移動ロボットの周囲の物体との距離を検出するセンサと、
前記作業現場の仮想三次元映像の視点を指定する視点指定部と、
前記センサの検出結果及び前記視点指定部が指定する視点に基づいて前記仮想三次元映像を生成する仮想映像生成部と、
前記仮想三次元映像を表示する表示部と、
前記移動ロボットを遠隔操作する操作信号を生成する操作部とを備え、
前記表示部は、ヘッドマウントディスプレイであり、
前記視点指定部は、ヘッドマウントディスプレイに組み込まれたモーションセンサであり、
前記仮想映像生成部は、前記モーションセンサで検出した視点指定信号に応じた前記仮想三次元映像を生成し、
前記表示部は、前記仮想三次元映像に前記作業現場の実映像を合成した合成映像を表示し、
前記映像合成部は、前記合成映像における前記ワーク及び前記移動ロボット以外の領域に前記移動ロボットの制御情報をはめ込む遠隔操作装置。
【請求項2】
前記仮想三次元映像は、前記移動ロボットのオブジェクトと前記移動ロボットが作業対象とするワークのオブジェクトとを含む、請求項1に記載の遠隔操作装置。」

2 補正の適否
(1)新規事項の追加について
本件補正は、本件補正前の請求項1に記載された発明を特定するために必要な事項である「表示部」について、補正前の「前記表示部は、前記仮想三次元映像に前記作業現場の実映像を合成した合成映像を表示し、前記映像合成部は、前記合成映像における前記ワーク及び前記移動ロボット以外の領域に前記移動ロボットの制御情報をはめ込む」との発明特定事項を、「前記表示部は、前記仮想三次元映像に前記作業現場の実映像を合成するとともに前記ワーク及び前記移動ロボット以外の領域かつ前記移動ロボットの移動方向の前方に前記移動ロボットの制御情報をはめ込んだ合成映像を表示する」とする補正事項(以下「本件補正事項」という。)を含むものである。
本件補正事項の根拠について、審判請求人は、令和5年4月21日提出の意見書において、「このような新たな限定事項は、本願の図3の記載を根拠とするものです。この図3には、移動ロボット1の進行方向の前方に制御情報映像g2を配置した合成映像Gが明示されております。」と主張している。

本件補正後の請求項1における「前記仮想三次元映像に・・・前記移動ロボットの移動方向の前方に前記移動ロボットの制御情報をはめ込んだ合成映像」に関して、当該合成映像は、合成映像上の移動ロボットの移動方向を二次元的にみた前方位置に制御情報をオーバーレイさせている合成映像とも、仮想三次元映像中の移動ロボットの移動方向の三次元的な前方位置に制御情報のオブジェクトを三次元的に配置している合成映像とも解釈し得るところ、令和5年7月14日の電話応対の内容(応対記録(初回応対令和5年7月7日)の応対2を参照。)を鑑みれば、請求人の本件補正の意図は後者であったと認められる。

しかし、本願の図3には、以下のとおり、支持台T、ワークW及びロボット本体1に係るオブジェクトについては、三次元的に描かれるものの、合成映像Gの右上に制御情報映像g2が表示される領域については単に矩形の枠として示されているにすぎず、仮想三次元映像中に制御情報のオブジェクトを三次元的に配置したものとまで看取することができない。また、願書に最初に添付された明細書、特許請求の範囲又は図面(以下「当初明細書等」という。)には、発明の詳細な説明の【0028】に「図3は、上記合成映像Gの一例を示す模式図である。この合成映像Gは、作業現場の仮想三次元映像(バーチャルリアリティ映像)に実映像g1及び制御情報映像g2をはめ込んで生成されている。バーチャルリアリティ映像には、支持台T上のワークWとロボット本体1とが、オブジェクト(仮想映像内の物体)として表示されている。また、この合成映像Gでは、バーチャルリアリティ映像において、ワークW及びロボット本体1の各オブジェクト以外の領域に実映像g1及び制御情報映像g2が配置されている。」と記載され、図3と合わせてみれば、制御情報映像g2がロボット本体1の移動方向の前方の、ワークW及びロボット本体1の各オブジェクト以外の領域に配置されることまでは記載されているといえるものの、実映像g1及び制御情報映像g2が仮想三次元映像中に三次元オブジェクトとして配置されていることについては記載がされていないし、他の箇所を含めてみても、当初明細書等の記載から自明な事項であるともいえない。


本願の図3

したがって、本件補正は、当初明細書等に記載された事項の範囲内においてしたものではないから、特許法第17条の2第3項に規定する要件を満たしていない。

(2)補正の目的について
仮に、上記(1)において、本件補正後の請求項1における「前記仮想三次元映像に・・・前記移動ロボットの移動方向の前方に前記移動ロボットの制御情報をはめ込んだ合成映像」に関して、当該合成映像は、合成映像上の移動ロボットの二次元的な移動方向の前方に制御情報をオーバーレイさせるものも含んでいると解釈した場合には、特に図3に図示される内容からみて、当初明細書等に記載された事項の範囲内において補正したものといえる蓋然性があるため、このように解釈をした場合について、以下検討する。

本件補正は、本件補正前の請求項1に記載された「表示部」及び「映像合成部」の処理内容について「前記表示部は、前記仮想三次元映像に前記作業現場の実映像を合成するとともに前記ワーク及び前記移動ロボット以外の領域かつ前記移動ロボットの移動方向の前方に前記移動ロボットの制御情報をはめ込んだ合成映像を表示する」と記載することで「表示部」の処理内容として特定し、「映像合成部」との記載を削除したものである。

本件補正前の請求項1に対しては、令和5年2月15日付けで当審において最後の拒絶理由として通知した拒絶理由の理由1で、「前記映像合成部」との記載は不明瞭である旨を説示し、その理由を解消するため、本件補正により「映像合成部」との記載を削除して「表示部」の機能として特定するものであるから、本件補正は、特許法第17条の2第5項第4号に掲げる明瞭でない記載の釈明(拒絶理由通知に係る拒絶の理由に示す事項についてするものに限る。)を目的とするものである。また、「表示部」が表示する合成映像にはめ込まれる制御情報が、「移動ロボットの移動方向の前方」に表示される点を特定する本件補正は、同法第17条の2第5項第2号に掲げる特許請求の範囲の減縮を目的とするものである。

(3)独立特許要件について
上記(2)のとおり、本件補正は特許法第17条の2第5項第2号に掲げる事項を目的として含むものであるから、同法第17条の2第6項において準用する同法第126条第7項の規定(特許出願の際独立して特許を受けることができるものであるか)について、以下検討する。

ア 本件補正発明
本件補正後の請求項1に係る発明(以下「本件補正発明」という。)は、上記1(1)に記載したとおりのものである。

イ 引用文献の記載事項、引用発明等
引用文献1:国際公開第2018/097223号
引用文献2:特開2017−208706号公報(周知技術を示す文献)
引用文献3:特開平9−224267号公報(周知技術を示す文献)
引用文献4:特開2016−205974号公報
引用文献5:米国特許出願公開第2016/0114418号明細書

(ア)引用文献1について
a 引用文献1の記載事項
令和5年2月15日付け拒絶理由通知書で引用された国際公開第2018/097223号(以下「引用文献1」という。)には、図面とともに次の記載がある(なお、下線は当審で付した。以下同じ。)。

(a)「[0018] 図1は、遠隔タスク実行システム5の全体的な構成の例を示す図である。図2は、第一の空間51、第二の空間52、および仮想空間53の例を示す図である。」

(b)「[0053] このように、モーションキャプチャコンピュータ16は、オペレータ40の全身の三次元形状を所定の時間Taごと算出する。三次元形状の変化は、オペレータ40のモーションを表わしている。したがって、モーションキャプチャコンピュータ16はオペレータ40のモーションをキャプチャしている、と言える。」

(c)「[0056] また、ロボットコンピュータ31は、色距離センサ39によって得られたRGBDデータなどに基づいて、ロボットコンピュータ31の周囲の物体のモデリングを行い、さらに、物体の位置および姿勢を算出する。ロボットコンピュータ31は、筐体30に内蔵されている。
[0057] 色距離センサ39は、RGB−Dカメラまたはデプスカメラである。色距離センサ39として、Kinectセンサが用いられる。色距離センサ39は、ロボット3の前方を計測することができるように、筐体30の上面に設置されている。なお、筐体30の上面以外の位置に設置されてもよい。例えば、把持部362に設置されてもよい。または、色距離センサ39が複数台、設置されてもよい。例えば、4台の色距離センサ39が筐体30の上面にそれぞれ前方、右方、左方、および後方を向くように設置されてもよい。」

(d)「[0085] すると、色距離センサ39は、所定の時間Taごとに計測を行い、計測によってRGBDデータ7Cを得るごとにロボットコンピュータ31へ送信する。なお、初期化後は、ロボット3の前方の計測およびRGBDデータ7Cの送信を、ロボット3が移動している間のみ行ってもよい。」

(e)「[0125] オペレーションコンピュータ10は、RGBDデータ7Cを受信すると、RGBDデータ7Cに基づいて第二の空間52を再現することによって、仮想空間53にある仮想の物体の位置および姿勢を算出する。これにより、ペン61およびパネル62など第二の空間52の中の各物体が、各物体の相対的な関係を保ったまま仮想空間53に仮想される。」

(f)「[0132] さらに、オペレーションコンピュータ10は、仮想空間演算モジュール103によって、所定の時間Taごとに仮想空間53におけるアバター41の両目の位置を検出し、その位置からの視線の方向を算出する。以下、仮想空間53におけるアバター41の両目の位置を「両目位置」と記載する。両目位置として、アバター41の両目の代わりにヘッドマウントディスプレイ12の位置を検出してもよい。そして、両目位置から視線の方向を見た場合の、仮想空間53の中の物体の様子の画像を表わす画像データ7Fを生成し、ヘッドマウントディスプレイ12へ送信する。この画像は、オペレータ40の視界に現われる様子を表わしていると、言える。
[0133] ヘッドマウントディスプレイ12は、画像データ7Fを受信するごとに、画像データ7Fが表わす画像を表示する。」

(g)「[0158] さらに、オペレータ40は、右手402がペン61に届くように思えたら、右手402を伸ばす。右手402がペン61に届いたことを、ヘッドマウントディスプレイ12に表示される画像によって確認したら、右手402を閉じる。すると、アバター41は、ペン61を掴もうとする。さらに、第二の空間52の中で、ロボット3は、ペン61を把持部362によって掴む。
[0159] そして、オペレータ40は、右手402を動かすことによって、ペン61をパネル62の表面のところまで移動させ、パネル62の表面にペン61の先が触れたように思えたら、円を描くように右手402を動かす。ハプテックスデバイスを用いて触覚や力覚をオペレータに提示することも可能である。すると、ロボット3は、右手402の動作に応じて把持部362を動作させる。これにより、パネル62の表面にペン61で円が描かれる。」

(h)「[0166] ロボット3は、アバター41の移動先の位置へ移動することできない場合に、オペレーションコンピュータ10へその旨を通知する。すると、ヘッドマウントディスプレイ12にその旨のメッセージや画像情報が表示される。

(i)「[0171] オペレーションコンピュータ10は、図15に示すように、仮想空間53の中の、第二の空間52におけるロボット3の現在の位置に対応する位置に、ロボット3の三次元形状を仮想した仮想ロボット3Aを配置する。仮想ロボット3Aの向きも、ロボット3の現在の向きに合わせる。
[0172] さらに、オペレーションコンピュータ10は、アバター41を配置する位置を仮想ロボット3Aの真後ろへ所定の距離だけシフトさせる。例えば、仮想ロボット3Aの背面から20センチメートル後方へシフトさせる。なお、仮想ロボット3Aの三次元データは、ロボット3を三次元計測することによって予め用意しておけばよい。ロボットのCAD(Computer-aided Design)データを用いてもよい。
[0173] そして、オペレーションコンピュータ10は、アバター生成モジュール102によってアバターデータ7Eが生成されまたは補正されると、ロボット3の現在の位置ではなく、シフト後の位置にアバター41を配置する。
[0174] その後、オペレーションコンピュータ10は、アバター41のシフト後の両目位置から視線方向を見た様子を表わす画像の画像データ7Fを生成し、ヘッドマウントディスプレイ12へ送信する。
[0175] そして、ヘッドマウントディスプレイ12は、画像データ7Fを受信するごとに、画像データ7Fが表わす画像を表示する。ただし、アバター41の位置がシフトしたので、図16のような、仮想ロボット3Aの背後から見た環境の様子の画像が表示される。
[0176] オペレーションコンピュータ10は、ソリューションモジュール107によって、ロボット3に障害物を乗り越えさせたり障害物から後退させたりする処理を行う。以下、この処理を、図17を参照しながら説明する。
[0177] オペレータ40は、画像を見ることによって、ロボット3の周囲の様子を確認する。ロボット3が障害物を乗り越えられそうであれば、ロボット3の背面を押すために、右手402および左手407を自分の前方へ伸ばし始める。
[0178] 右手402および左手407を伸ばしている途中で、仮想空間演算モジュール103の処理によって、アバター41の右手および左手が仮想ロボット3Aの背面に触れる様子の画像がヘッドマウントディスプレイ12に表示される。オペレータ40は、右手402および左手407をさらに伸ばし続ける。
[0179] オペレーションコンピュータ10は、アバター41の右手および左手が仮想ロボット3Aの背面に達したことを検知すると、出力アップコマンド83をロボットコンピュータ31へ送信する。
[0180] ロボットコンピュータ31は、出力アップコマンド83を受信すると、ロボットコントローラ32へ転送する。
[0181] ロボットコントローラ32は、出力アップコマンド83を受信すると、回転数を通常よりも上げるようにモバイルドライバ34へ指令する。
[0182] すると、モバイルドライバ34は、右車輪351および左車輪352が通常より高速に回転するように、または、通常よりも高い加速度で回転するように、モータ33を制御する。これにより、ロボット3が障害物を乗り越えられることもあれば、乗り越えられないこともある。あるいは、ロボット3が、フリッパーを備えるクローラ型ロボットの場合は、フリッパーの角度を障害物に合わせて調節し、障害物を踏破する。
[0183] なお、右手402および左手407が伸びる速さに比例して右車輪351および左車輪352の回転数または加速度が高くなるように構成してもよい。この場合は、その速さをパラメータとして出力アップコマンド83に加えておけばよい。そして、モバイルドライバ34は、そのパラメータに応じた回転数または加速度で右車輪351および左車輪352が回転するようにモータ33を制御すればよい。次に説明する、ロボット3を後退させる場合も同様に、右手402を曲げる速さに応じて右車輪351および左車輪352の回転数または加速度が高くなるように構成してもよい。
[0184] または、ロボット3が障害物を乗り越えられそうでない場合、または、乗り越えることができなかった場合は、オペレータ40は、筐体30またはマニピュレータ36を掴んでロボット3を後ろへ下げるために、右手402を自分の前方へ伸ばし始める。
[0185] 右手402を伸ばしている途中で、仮想空間演算モジュール103の処理によって、アバター41の右手が仮想ロボット3Aの筐体またはマニピュレータに触れる様子がヘッドマウントディスプレイ12に表示される。ここで、オペレータ40は、筐体またはマニピュレータを掴むように右手402を閉じ、筐体またはマニピュレータを自分のほうへ引っ張るように右手402を曲げ始める。
[0186] すると、オペレーションコンピュータ10は、バックコマンド84をロボットコンピュータ31へ送信する。
[0187] ロボットコンピュータ31は、バックコマンド84を受信すると、ロボットコントローラ32へ転送する。
[0188] ロボットコントローラ32は、バックコマンド84を受信すると、後退するようにモバイルドライバ34へ指令する。
[0189] すると、モバイルドライバ34は、右車輪351および左車輪352が逆回転するように、モータ33を制御する。これにより、ロボット3が後退する。
[0190] または、オペレータ40は、足踏みしまたは方向を変えることによって、仮想ロボット3Aの後方から前方へアバター41を回り込ませ、仮想ロボット3Aの前面を押すことによって、仮想ロボット3Aを後退させてもよい。
[0191] オペレータ40は、ロボット3に障害物を乗り越えさせることができ、または、ロボット3に後退させることができたら、再開コマンド78をオペレーションコンピュータ10に入力する。 図12は、仮想空間53の様子の画像を表示する際のデータの流れの例を示す図である。図13は、ヘッドマウントディスプレイ12に表示される画像の例を示す図である。」

(j)図15「



(k)図16「



b 引用文献1に記載された技術的事項
上記aの記載事項から、次の技術的事項を理解できる。

(a)ロボット3は、前方及び後方に移動するとともに、第二の空間52においてパネル62の表面にペン61で円を描いている(上記a(g)、(i))こと。

(b)色距離センサ39は、ロボット3と当該ロボット3の周囲の物体との距離を検出している(上記a(c))こと。

(c)モーションキャプチャコンピュータ16は、アバター41のシフト後の両目位置から視線方向を見た場合の仮想空間53の様子を表わす画像データ7Fにおける、アバター41のシフト後の両目位置と視線方向を算出している(上記a(b)、(f)、(i)〜(k))こと。

(d)仮想空間演算モジュール103は、色距離センサによって得られたRGBDデータ7C及びアバター41のシフト後の両目位置と視線方向に基づいて画像データ7Fを生成している(上記a(c)〜(f))こと。

(e)ヘッドマウントディスプレイ12は、仮想空間53の様子を表わす画像データ7Fを表示している(上記a(f))こと。

(f)オペレーションコンピュータ10は、出力アップコマンド83をロボットコンピュータ31に送信し、ロボットコンピュータ31は、出力アップコマンド83を受信すると、出力アップコマンド83をロボットコントローラ32へ転送する(上記a(i))こと。

c 引用発明
上記a〜bから、引用文献1には、次の発明(以下「引用発明」という。)が記載されていると認められる。

「第二の空間52においてパネル62の表面にペン61で円を描くロボット3と当該ロボット3の周囲の物体との距離を検出する色距離センサ39と、
アバター41のシフト後の両目位置から視線方向を見た場合の仮想空間53の様子を表わす画像データ7Fにおける、前記アバター41のシフト後の両目位置と視線方向を算出するモーションキャプチャコンピュータ16と、
RGBDデータ7C及び前記アバター41のシフト後の両目位置と視線方向に基づいて前記画像データ7Fを生成する仮想空間演算モジュール103と、
前記仮想空間53の様子を表わす前記画像データ7Fを表示するヘッドマウントディスプレイ12と、
出力アップコマンド83をロボットコントローラ32へ転送するオペレーションコンピュータ10及びロボットコンピュータ31とを備え、
前記ヘッドマウントディスプレイ12はヘッドマウントディスプレイであり、
前記仮想空間演算モジュール103は、前記モーションキャプチャコンピュータ16が算出した両目位置と視線方向に基づいて画像データ7Fを生成する遠隔タスク実行システム5。」

d 引用文献1に記載された事項1
引用文献1の段落[0132]には、仮想空間演算モジュール103がヘッドマウントディスプレイ12の位置を検出し、その位置から視線の方向を見た場合の画像データ7Fを生成すること(以下「引用文献1に記載された事項1」という。)も記載されている(上記イ(ア)a(f))

e 引用文献1に記載された事項2
また、引用文献1の段落[0166]には、ヘッドマウントディスプレイ12にメッセージや画像情報といった付加的な情報を表示すること(以下「引用文献1に記載された事項2」という。)も記載されている(上記イ(ア)a(h))

(イ)引用文献4について
a 引用文献4の記載事項
令和5年2月15日付け拒絶理由通知書で引用された特開2016−205974号公報(以下「引用文献4」という。)には、図面とともに次の記載がある。

(a)「【0108】
図14には、仮想3次元空間内に実際の映像IMGを表示する例が示される。測定システム1Cは、測定機Mの映像IMGを取得するカメラCM1を備えていてもよい。カメラCM1によって取得した測定機Mの映像IMGは、ヘッドマウントディスプレイHDの仮想3次元空間内の所定位置に表示される。
【0109】
ユーザ800は、ヘッドマウントディスプレイHDに表示される測定機画像MGとともに、実際の測定機Mの映像IMGを参照することができる。これにより、仮想3次元空間内において、実際の測定機Mの動作を確認しながら作業を行うことができるようになる。」

(b)図14「



b 引用文献4から理解できる事項
上記aの記載事項から、次の事項を理解できる。

(a)ヘッドマウントディスプレイHDに表示される仮想3次元空間内に、測定器画像MGとともに実際の測定器Mの映像IMGを表示する(上記a(a))こと。

(b)仮想3次元空間が表示される画像の中に映像IMGを合成している(上記a(b))こと。

c 引用文献4に記載された技術的事項
上記bの事項を整理すると、引用文献4には次の技術的事項(以下「引用文献4に記載された技術的事項」という。)が記載されているということができる。

「仮想3次元空間が表示される画像の中に映像IMGを合成してヘッドマウントディスプレイHDに表示させること。」

(ウ)引用文献5について
a 引用文献5の記載事項
令和5年2月15日付け拒絶理由通知書で引用された米国特許出願公開第2016/0114418号明細書(以下「引用文献5」という。)には、図面とともに次の記載がある(日本語訳は当審で付した。)。

(a)「[0020] ・・・ In certain embodiments, the computer readable instructions 22 are executable to facilitate remote control of the welding or cutting robot 12 by, for example, presenting a virtual reality (or augmented reality) environment to an operator 26 of the control system 16 and receiving control inputs from the operator 26 via one or more control devices 28. More specifically, in certain embodiments, a virtual reality (or augmented reality) representation of the welding or cutting robot 12 performing a welding or cutting operation on a virtual reality (or augmented reality) representation of the parts 14 being worked on may be displayed on a display device 30 by the control circuitry 18 of the control system 16. In certain embodiments, the display device 30 may include a single computer monitor, multiple computer monitors or video projection systems (e.g., each displaying portions of the virtual/augmented reality representation), virtual/augmented reality goggles, virtual/augmented reality glasses, and so forth.
[0021] ・・・In certain embodiments, the one or more control devices 28 may include positional sensors 32, such as gyroscopes, accelerometers, and so forth, which may be used to determine position, orientation, and/or movement data of the one or more control devices 28, which may be used by the control system 16 to control the position, orientation, and/or movement (e.g., work angle, travel angle, contact tip to work distance, and so forth) of a welding or cutting torch 34 of the welding or cutting robot 12 in accordance with the position, orientation, and/or movement data of the one or more control devices 28.・・・」
([0020]・・・特定の実施形態では、コンピュータ読取り可能命令22は、例えば、制御システム16のオペレータ26に仮想現実(または拡張現実)環境を提示し、1つ以上の制御装置28を介してオペレータ26からの制御入力を受信することによって、溶接または切断ロボット12の遠隔制御を容易に実行可能である。より具体的には、特定の実施形態では、作業中の部品14の仮想現実(または拡張現実)表示上で溶接又は切断動作を行う溶接または切断ロボット12の仮想現実(または拡張現実)表示は、制御システム16の制御回路18によって表示装置30に表示され得る。特定の実施形態では、表示装置30は、単一のコンピュータ、複数のコンピュータモニタまたはビデオ投影システム(例えば、それぞれが仮想/拡張現実表示部分を表示する)と、仮想/拡張現実ゴーグル、仮想/拡張現実型メガネ、等を含み得る。
[0021]・・・特定の実施形態では、1つ以上の制御装置28は、ジャイロスコープ、加速度計、等のような、位置センサ32を含むことができ、1つ以上の制御装置28の位置、向き、及び/又は動きデータを決定するために使用することができ、これらは制御システム16によって、1つ以上の制御デバイス28の位置、向き、及び/又は動きデータに応じて、溶接又は切断ロボット12の溶接トーチ又は切断トーチ34の位置、向き、及び/又は動き(例えば、ねらい角、前進角、コンタクトチップ・被溶接物間距離、等)を制御するために使用することができる。)

(b)「[0049] ・・・One or more other text or objects may be added to the image to provide information about the welding or cutting operation, including weld size and/or shape, weld or cut quality, or other information.」
([0049]・・・溶接サイズ及び/又は形状、溶接又は切断品質、又は、その他の情報を含む溶接又は切断作業についての情報を提供するために、1つ以上の他のテキスト又はオブジェクトを画像に追加してもよい。)

(c)「[0051] ・・・FIGS. 4A and 4B illustrate exemplary virtual reality representations that may be displayed on the display 30 and which may be used as visual feedback to the operator 26 while the operator 26 manipulates the one or more control devices 28 locally, and the welding or cutting robot 12 performs an actual welding or cutting operation on the parts 14 remotely in accordance with inputs received via the one or more control devices 28. More specifically, FIG. 4A illustrates a virtual reality representation 110 that resembles the actual parts 14 being worked on, with a virtual welding or cutting robot 112 having a virtual welding or cutting torch 114, ・・・. As illustrated in FIGS. 4A and 4B, the virtual workpiece 120 may be represented virtually in both virtual reality representations 110, 116 such that the operator 26 is aided in manipulating the control device 28 to cause a desired actual welding or cutting operation on the actual parts 14 being worked on.」
([0051]・・・図4A、4Bには、表示装置30上に表示される、オペレータ26が1つ以上の制御装置28をローカルで操作し、溶接または切断ロボット12が1つ以上の制御装置28を介して受信した入力に従って部品14に対して実際の溶接又は切断作業を遠隔で実行する間に、オペレータ26への視覚的フィードバックとして使用することができる例示的な仮想現実表現を示す。図4Aは、仮想溶接または切断トーチ114を有する仮想の溶接又は切断ロボット112による、作業中の実際の部品14に似た仮想現実表現110を示し、・・・。図4A及び図4Bに示すように、仮想のワーク120は、作業中の実際の部品14に対して所望する実際の溶接または切断作業をするためにオペレータ26が制御装置28を操作する助けになるように、両方の仮想現実表現110、116において仮想的に表現され得る。)

(d)FIG.4A「



b 引用文献5から理解できる事項
上記aの記載事項から、次の事項を理解できる。

(a)仮想現実表示110の左上のエリアにCTWD等のテキストを加えたものを表示装置30に表示する(上記a(b)〜(d))こと。

(b)CTWD等のテキストは、仮想のワーク120、及び、仮想の溶接又は切断ロボット112以外の領域に表示される(上記a(d))こと。

(c)CTWD等のテキストは、仮想のワーク120の溶接線の延長線上に表示されているところ、溶接又は切断ロボット112は溶接線に沿って前後方向に移動するものであるから、CTWD等のテキストは、仮想現実表示110上で仮想の溶接又は切断ロボット112の二次元的な移動方向の前方に表示される(上記a(d))こと。

(d)「CTWD」は、「コンタクトチップ−ワーク間距離(contact tip to work distance)」を意味する(上記a(a)、(d))こと。

(e)「コンタクトチップ−ワーク間距離」は、溶接又は切断ロボット12の制御に使用される制御情報である(上記a(a))こと。

c 引用文献5に記載された技術的事項
上記bの事項を整理すると、引用文献5には次の技術的事項(以下「引用文献5に記載された技術的事項」という。)が記載されているということができる。

「仮想現実表示110に、仮想のワーク120及び仮想の溶接又は切断ロボット112以外の領域かつ前記仮想の溶接又は切断ロボット112の移動方向の前方又は後方に溶接又は切断ロボット12の制御情報を加えて表示装置30に表示させること。」

ウ 周知・慣用技術の認定
(ア)引用文献の記載事項
a 引用文献2について
令和5年2月15日付け拒絶理由通知書で引用された特開2017−208706号公報(以下「引用文献2」という。)には、図面とともに次の記載がある。

(a)「【0018】
さらに、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢を撮影画像から特定し、それに対応するように視野を変化させて仮想世界を描画することによりVR(Virtual Reality:仮想現実)も実現できる。撮影画像からカメラの位置や姿勢を推定する技術には、v−SLAM(Visual Simultaneous Localization And Mapping)などの一般的な技術を適用できる。頭部の回転角や傾きは、ヘッドマウントディスプレイ100に内蔵または外付けされたモーションセンサによって計測してもよい。撮影画像の解析結果とモーションセンサの計測値を相補完的に利用してもよい。」

b 引用文献3について
令和5年2月15日付け拒絶理由通知書で引用された特開平9−224267号公報(以下「引用文献3」という。)には、図面とともに次の記載がある。

(a)「【0003】立体ディスプレイの一例として、ここでは図25に示す頭部装置型表示装置(以下、HMDと略記する)を取り上げる。このHMDは二眼式立体ディスプレイの一種であり、観察者の左右眼球の前にそれぞれ左右の表示素子と左右の拡大光学系500,501を配置する。そして、左用映像は左目に、右目用映像は右目に提示することで立体視できる。又、頭部頂上には支持アーム503を介して頭の動きを検出するヘッドモーションセンサ504が取り付けられ、頭部の動きに対応した映像を表示できるようになっている。更に、処理装置520はケーブル522を介して接続部506に接続されており、耳元には音響を出力するためのスピーカ509が設けられている。」

(b)図25「



(イ)周知・慣用技術
上記(ア)に示した引用文献2〜3の記載に例示されるように、次の技術的事項は、本件出願前において、当業者にとって周知・慣用技術であったといえる。

「VR技術において、ヘッドマウントディスプレイに組み込まれたモーションセンサによって頭部の向きを検出すること。」

エ 本件補正発明と引用発明との対比
(ア)本件補正発明と引用発明とを対比する。
引用発明の「第二の空間52」は本件補正発明の「作業現場」に相当し、以下同様に、「ロボット3」は「移動ロボット」に相当し、「色距離センサ39」は「センサ」に相当し、「画像データ7F」は「仮想三次元映像」に相当し、「アバター41のシフト後の両目位置と視線方向」は「視点」に相当し、「モーションキャプチャコンピュータ16」は「視点指定部」に相当し、「RGBDデータ7」は、色距離センサ39によって得られたものであるから「センサの検出結果」に相当し、「仮想空間演算モジュール103」は「仮想映像生成部」に相当し、「ヘッドマウントディスプレイ12」は「表示部」に相当し、「出力アップコマンド83」は「操作信号」に相当し、「オペレーションコンピュータ10及びロボットコンピュータ31」は「操作部」に相当し、「遠隔タスク実行システム5」は「遠隔操作装置」に相当する。
また、引用発明の「パネル62の表面にペン61で円を描く」ことは本件補正発明の「ワークに所定の作業を行う」ことに相当し、以下同様に、「アバター41のシフト後の両目位置と視線方向を算出する」ことは「作業現場の仮想三次元映像の視点を指定する」ことに相当し、「出力アップコマンド83をロボットコントローラ32へ転送する」ことは「移動ロボットを遠隔操作する操作信号を生成する」ことに相当し、「両目位置と視線方向に基づいて画像データ7Fを生成する」することは「視点指定信号に応じた前記仮想三次元映像を生成」することに相当する。

(イ)以上のことから、本件補正発明と引用発明との一致点、相違点は、次のとおりである。

a 一致点
「作業現場においてワークに所定の作業を行う移動ロボットと当該移動ロボットの周囲の物体との距離を検出するセンサと、
前記作業現場の仮想三次元映像の視点を指定する視点指定部と、
前記センサの検出結果及び前記視点指定部が指定する視点に基づいて前記仮想三次元映像を生成する仮想映像生成部と、
前記仮想三次元映像を表示する表示部と、
前記移動ロボットを遠隔操作する操作信号を生成する操作部とを備え、
前記表示部は、ヘッドマウントディスプレイであり、
前記仮想映像生成部は、前記視点指定部で検出した視点指定信号に応じた前記仮想三次元映像を生成する遠隔操作装置。

b 相違点
(a)相違点1
本件補正発明は、視点指定部がヘッドマウントディスプレイに組み込まれたモーションセンサであるのに対し、引用発明のモーションキャプチャ16はモーションセンサの一種ではあるものの、ヘッドマウントディスプレイに組み込まれているかは不明な点。

(b)相違点2
本件補正発明は、表示部が、仮想三次元映像に作業現場の実映像を合成した合成映像を表示するのに対し、引用発明は、仮想三次元映像に実映像を合成しているか不明な点。

(c)相違点3
本件補正発明は、表示部が、仮想三次元映像に、ワーク及び移動ロボット以外の領域かつ前記移動ロボットの移動方向の前方に前記移動ロボットの制御情報をはめ込んだ合成映像を表示するのに対し、引用発明は、ワーク及び移動ロボット以外の領域かつ前記移動ロボットの移動方向の前方に前記移動ロボットの制御情報をはめ込んでいるか不明な点。

オ 判断
(ア)相違点1について
引用文献1の段落[0132]には、引用文献1に記載された事項1として示すように、仮想空間演算モジュール103がヘッドマウントディスプレイ12の位置を検出し、その位置から視線の方向を見た場合の画像データ7Fを生成することも記載されている(上記イ(ア)d)ところ、上記ウ(イ)に示したとおり、「VR技術において、ヘッドマウントディスプレイに組み込まれたモーションセンサによって頭部の向きを検出すること」が周知・慣用技術であることに鑑みれば、引用発明のヘッドマウントディスプレイ12にもモーションセンサとしてのモーションキャプチャ16の一部が組み込まれている蓋然性が高いといえる。
したがって、相違点1は、実質的な相違点ではない。
また、仮にヘッドマウントディスプレイ12にモーションセンサの一部が組み込まれていないとしても、引用発明に上記周知・慣用技術を適用し、上記相違点1に係る本件補正発明のようにすることは、作用・機能の共通性及び引用文献1の上記記載からみて、当業者であれば容易に想到し得たことである。

(イ)相違点2について
引用発明と上記イ(イ)cに示した引用文献4に記載された技術的事項とは、操作者がヘッドマウントディスプレイに表示された仮想三次元映像を見ながら装置を遠隔で操作するという共通の機能を有するものである。
また、引用文献1の段落[0166]には、引用文献1に記載された事項2として示すように、ヘッドマウントディスプレイ12にメッセージや画像情報といった付加的な情報を表示することも記載されている(上記イ(ア)e)ところ、引用発明に引用文献4に記載された技術的事項を適用し、仮想三次元映像に付加的な情報として実際の装置の映像を合成してヘッドマウントディスプレイに表示させるようにすることは、当業者であれば容易に想到し得たことである。

(ウ)相違点3について
引用発明と上記イ(ウ)cに示した引用文献5に記載された技術的事項とは、操作者がヘッドマウントディスプレイに表示された仮想三次元映像を見ながらロボットを遠隔で操作するという共通の機能を有するものである。
引用文献1には、引用文献1に記載された事項2も記載されているところ、引用発明に引用文献5に記載された技術的事項を適用し、また、各オブジェクトや各種の映像・情報を見やすくなるように配置を適宜調整し、仮想三次元映像のワーク及び移動ロボット以外の領域かつ移動ロボットの移動方向の前方に移動ロボットの制御情報をはめ込んで表示させるようにすることは、当業者であれば容易に想到し得たことである。

カ 独立特許要件のまとめ
したがって、本件補正発明は、引用発明、引用文献1に記載された事項1〜2、引用文献4に記載された技術的事項、引用文献5に記載された技術的事項、及び、周知・慣用技術に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により、特許出願の際独立して特許を受けることができないものである。

(4)審判請求人の主張
請求人は、令和5年4月21日提出の意見書において、引用文献5に関し、「切断ロボット112は、移動ロボットではあるものの前方に移動するものではありません。したがって、引用文献5の図4Aに図示されているロボットの制御情報(溶接作業の情報)は、移動ロボットの移動方向の前方には配置されてなく、後方又は側方に配置されております。」と主張しており、移動ロボットの移動方向と、本件補正発明における「前方」とは、異なる方向である旨の主張をしている。
しかし、本件補正発明における「前方」は「移動ロボットの移動方向の前方」であって、移動ロボットの移動方向と必ず合致するものであり、引用文献5に記載された技術的事項においても、上記イ(ウ)b(c)、同cのとおり、移動ロボットの移動方向の前方を含む位置に配置されている。また、上記オ(ウ)のとおり、引用発明に引用文献5に記載された技術的事項を適用して、上記相違点3に係る本件補正発明のようにすることも、当業者にとって容易である。
したがって、請求人の上記主張は採用できない。

3 小括
上記2(1)のとおり、本件補正は、特許法第17条の2第3項の規定に違反するので、同法第159条第1項により読み替えて準用する同法第53条第1項の規定により却下すべきものである。
また、仮に本件補正が特許法第17条の2第3項に規定する要件を満たしており、同法第17条の2第5項第2号に掲げる事項を目的とするものであったとしても、本件補正は、上記2(3)のとおり、同法第17条の2第6項において準用する同法第126条第7項の規定に違反するので、同法第159条第1項により読み替えて準用する同法第53条第1項の規定により却下すべきものである。
したがって、上記補正の却下の決定の結論のとおり決定する。

第3 本願発明
令和5年4月21日にされた手続補正は、上記第2のとおり却下されたので、本願の請求項1〜2に係る発明は、令和5年1月16日にされた手続補正により補正された特許請求の範囲の請求項1〜2に記載された事項により特定されるとおりのものであるところ、その請求項1に係る発明(以下「本願発明」という。)は、上記第2の[理由]1(2)の請求項1に記載されたとおりのものである。

第4 当審において通知した拒絶理由
1 拒絶理由の概要
令和5年2月15日付けで当審において通知した拒絶理由(以下「当審拒絶理由」という。)の概要は、次のとおりである。
(1)理由1(明確性)について
本件出願は、特許請求の範囲の記載が、特許法第36条第6項第2号に規定する要件を満たしていない。

(2)理由2(進歩性)について
本件出願の請求項1〜2に係る発明は、その出願前に日本国内または外国において頒布された以下の引用文献1〜5に基づいて、その出願前にその発明の属する技術の分野における通常の知識を有する者(以下「当業者」という。)が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献1:国際公開第2018/097223号
引用文献2:特開2017−208706号公報(周知技術を示す文献)
引用文献3:特開平9−224267号公報(周知技術を示す文献)
引用文献4:特開2016−205974号公報
引用文献5:米国特許出願公開第2016/0114418号明細書

2 当審拒絶理由における判断の適否
(1)理由1(明確性)について
本件補正前の請求項1の記載を改めて検討しても、上記1(1)は、概略請求項1の「前記映像合成部は、前記合成映像における・・・をはめ込む」の記載が明確でない旨を内容とするところ、その内容に誤りはなく、本願発明は明確でないから、理由1が解消していないことは明らかである。

(2)理由2(進歩性)について
a 引用文献に記載された発明等
当審において通知した拒絶理由通知書で引用された引用文献1〜5は、上記第2の[理由]2(3)イに記載したとおりであって、引用発明、引用文献1に記載された技術的事項1〜2、引用文献4に記載された技術的事項、引用文献5に記載された技術的事項は、上記第2の[理由]2(3)イに、周知・慣用技術は、上記第2の[理由]2(3)ウに、それぞれ示したとおりである。

b 本願発明と引用発明との対比
本願発明と引用発明とを対比すると、上記第2の[理由]2(3)エ(イ)aに示す一致点と同様の点にて一致し、上記第2の[理由]2(3)エ(イ)b(a)及び(b)に示す相違点1及び相違点2と同様の点にて相違するほか、以下の相違点3’にて相違する。
<相違点3’>
本願発明は、合成映像部が、合成映像におけるワーク及び移動ロボット以外の領域に前記移動ロボットの制御情報をはめ込んでいるのに対し、引用発明は、ワーク及び移動ロボット以外の領域に前記移動ロボットの制御情報をはめ込んでいるか不明な点。

c 判断
上記相違点について検討すると、相違点1及び2については、第2の[理由]2(3)オ(ア)及び(イ)に示したとおりである。
また、相違点3’について検討すると、合成映像におけるワーク及び移動ロボット以外の領域に前記移動ロボットの制御情報をはめ込む点については、上記第2の[理由]2(3)イ(ウ)cに示すとおり、引用文献5に記載された技術的事項である。
そして、上記第2の[理由]2(3)オ(ウ)に示すとおり、引用発明に引用文献5に記載された技術的事項を適用し、合成映像の仮想三次元映像のワーク及び移動ロボット以外の領域に移動ロボットの制御情報をはめ込んで表示させるようにすることは、当業者であれば容易に想到し得たことであって、そのはめ込みを映像合成部に相当する部分にて行うことも、当業者であれば普通になし得たことである。

(c)小括
本願発明は、引用発明、引用文献1に記載された事項1〜2、引用文献4に記載された技術的事項、引用文献5に記載された技術的事項、及び、周知・慣用技術に基づいて、当業者が容易に発明をすることができたものであるから、当審拒絶理由の判断に誤りはなく、理由2が解消していないことは明らかである。

第5 むすび
上記第4の2(1)に示すように、当審拒絶理由の理由1(明確性)は解消しておらず、この出願は、請求項1の記載が、特許法第36条第6項第2号に規定する要件を満たしていない。
また、上記第4の2(2)に示すように、当審拒絶理由の理由2(進歩性)は解消しておらず、本願発明は、特許法第29条第2項の規定により特許を受けることができない。
したがって、他の請求項に係る発明について検討するまでもなく、本願は拒絶されるべきものである。
よって、結論のとおり審決する。
 
別掲 (行政事件訴訟法第46条に基づく教示) この審決に対する訴えは、この審決の謄本の送達があった日から30日(附加期間がある場合は、その日数を附加します。)以内に、特許庁長官を被告として、提起することができます。
 
審理終結日 2023-08-16 
結審通知日 2023-08-22 
審決日 2023-09-05 
出願番号 P2021-512029
審決分類 P 1 8・ 537- WZ (B25J)
P 1 8・ 121- WZ (B25J)
P 1 8・ 574- WZ (B25J)
P 1 8・ 575- WZ (B25J)
P 1 8・ 561- WZ (B25J)
最終処分 02   不成立
特許庁審判長 鈴木 貴雄
特許庁審判官 奥隅 隆
田々井 正吾
発明の名称 遠隔操作装置  
代理人 寺本 光生  
代理人 西澤 和純  
代理人 清水 雄一郎  
代理人 高橋 久典  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ