• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない。 B25J
審判 査定不服 5項独立特許用件 特許、登録しない。 B25J
管理番号 1388045
総通号数
発行国 JP 
公報種別 特許審決公報 
発行日 2022-09-30 
種別 拒絶査定不服の審決 
審判請求日 2021-08-06 
確定日 2022-08-04 
事件の表示 特願2016−234310「コミュニケーションロボット」拒絶査定不服審判事件〔平成30年 6月14日出願公開、特開2018− 89730〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 手続の経緯
本願は、平成28年12月1日の出願であって、その主な手続の経緯は以下のとおりである。
令和 2年10月30日付け:拒絶理由通知書
同年12月14日 :意見書、手続補正書の提出
令和 3年 4月30日付け:拒絶査定
同年 8月 6日 :審判請求書、手続補正書の提出

第2 令和3年8月6日にされた手続補正についての補正の却下の決定

[補正の却下の決定の結論]
令和3年8月6日にされた手続補正(以下「本件補正」という。)を却下する。

[理由]
1 本件補正について(補正の内容)
(1)本件補正後の特許請求の範囲の記載
本件補正により、特許請求の範囲の請求項1の記載は、次のとおり補正された。(下線部は、補正箇所である。)

「人体に模した形状であって人間との間でコミュニケーションを行うコミュニケーションロボットにおいて、
ロボット本体を被覆する柔軟素材からなる皮膚部材と;
コミュニケーションの相手方である前記人間から受信した画像データ、圧力データ及び音声データからなる外部情報を組合わせて解析することにより、前記外部情報に応じた喜怒哀楽を表わす感情情報を生成する感情情報生成手段と;
前記感情情報を皮膚の色の変化を伴って表示する表示手段と;
前記感情情報の表示を制御する制御手段と;を備え、
前記表示手段を顔面を構成する前記皮膚部材中に埋め込み配置したコミュニケーションロボット。」

(2)本件補正前の特許請求の範囲
本件補正前の、令和2年12月14日にされた手続補正により補正された特許請求の範囲の請求項1の記載は次のとおりである。

「人体に模した形状であって人間との間でコミュニケーションを行うコミュニケーションロボットにおいて、
ロボット本体を被覆する柔軟素材からなる皮膚部材と;
外部情報に応じて喜怒哀楽を表わす感情情報を生成する感情情報生成手段と;
前記感情情報を皮膚の色の変化を伴って表示する表示手段と;
前記感情情報の表示を制御する制御手段と;を備え、
前記表示手段を顔面を構成する前記皮膚部材中に埋め込み配置したコミュニケーションロボット。」

2 補正の適否
本件補正は、本件補正前の請求項1に記載された発明を特定するために必要な事項である「感情情報生成手段」が「外部情報に応じ」て生成する「喜怒哀楽を表す感情情報」について、「コミュニケーションの相手方である前記人間から受信した画像データ、圧力データ及び音声データからなる外部情報を組合わせて解析することにより、前記外部情報に応じた」ものであるとの限定を付加するものであって、補正前の請求項1に記載された発明と補正後の請求項1に記載される発明の産業上の利用分野及び解決しようとする課題が同一であるから、特許法第17条の2第5項2号の特許請求の範囲の減縮を目的とするものに該当する。
そこで、本件補正後の請求項1に記載される発明(以下「本件補正発明」という。)が特許法第17条の2第6項において準用する同法第126条第7項の規定に適合するか(特許出願の際独立して特許を受けることができるものであるか)について、以下、検討する。

(1)本件補正発明
本件補正発明は、上記1(1)に記載したとおりのものである。

(2)引用文献の記載事項
ア 引用文献1
(ア)原査定の拒絶の理由で引用された、本願出願前に頒布された又は電気通信回線を通じて公衆に利用可能となった文献である、特開2008−149442号公報(平成20年7月3日出願公開。以下、「引用文献1」という。)には、図面とともに、次の記載がある。(下線は理解の便のため当審にて付与。)

「【0006】
本発明の第1の目的は、可撓性ディスプレイの可撓性をロボットのケーシング表皮に応用し、可動本体またはロボットに様々な表情や図案を表示させ、可動本体またはロボットの人間との相互作用性を強化させ、生命のないロボットに更に多くの表現および反応をする能力を与える表面に情報表示および相互作用機能を備える可動装置を提供することにある。
・・・」

「【0013】
図1は、本発明の表面に情報表示および相互作用機能を備える可動装置の実施例を示す斜視図である。
可動装置1は、可動本体10(moving object)、知覚入力ユニット14および制御ユニット(図示せず)を備える。可動本体10は動作表現能力を備えた複数の身体部材が組み合わさった機械であり、単一動作または組み合わせた動作を行うものである。この機械は、工業ロボットアーム、移動式ロボット、相互作用ロボット、案内ロボット、ガードマンロボット、介護ロボット、教育ロボットまたは娯楽用ロボットなどである。・・・
【0014】
可動本体10の表面または一部表面には表皮ユニット11が貼設され、主に、可撓性ディスプレイから構成され、種々の情報を表示する。この可撓性ディスプレイは有機ELによって形成された可撓性ディスプレイまたは可撓性電子ペーパなどであり、軽くて薄く、可撓性を備えたディスプレイであるがそれだけに制限されない。可撓性ディスプレイが表示する相互作用情報は色、図案または文字などの情報であるがそれだけに制限されない。図案は二次元の平面または三次元の立体の図案である。
【0015】
図2は、本発明の実施例の表面に、情報表示および相互作用機能を備える可動装置の表皮ユニットの断面図である。図2において、可撓性電子ディスプレイ110の可撓性および薄いという特性によって、表皮ユニット11と可動本体10との間は(背)糊剤111またはその他粘着固定方式によって密着するように固定される。
このように、可撓性ディスプレイ110を可動本体10のケーシングの平坦面または曲面表面に設置した後、可撓性電子ディスプレイ110上に更に知覚入力ユニット14が貼設される。なお、可撓性ディスプレイである可撓性電子ディスプレイ110が情報を表示する表皮ユニット11は、必要に応じて、可動本体10の外部表面または一部表面に選択的に敷設される。
本実施例において、知覚入力ユニット14は更にタッチセンサユニット112を備え、タッチ操作によって生成されたタッチ制御信号を受信することができる。タッチセンサユニット112の表面には保護膜113を設置でき、表皮ユニット11全体を保護する。タッチセンサユニット112によってタッチ位置の感知を行うことができ、更に、可動本体10またはロボットの表面に色、図案または文字の情報などを生成することができる。その他、タッチ位置感知能力を備えたタッチセンサユニット112によって可動装置1と周囲の環境との相互作用性を強化することができる。」

「【0019】
図5は、本発明の表面に情報表示および相互作用機能を備える可動装置の制御ユニットの実施例を示すブロック図である。この制御ユニット13は可動本体10(図1、図2参照)上に設置され、制御ユニット13は可動本体10の単一動作または組み合わせた動作を制御でき、表皮ユニット11の状況に応じた相互作用情報の表示を制御でき、制御ユニット13はタッチセンサユニットが生成するタッチ感知信号、その他のセンサが測定した入力信号および通信コミュニケーション信号を受信して相互作用効果を生成することができる。
【0020】
本実施例において、制御ユニット13は、プロセッサ130、表示インターフェイス131、センサインターフェイス132、命令出力制御インターフェイス134およびI/Oインターフェイス133を備える。表示インターフェイス131は表皮ユニット11の可撓性ディスプレイ110と接続され、センサインターフェイス132は表皮ユニット11のタッチセンサユニット112と接続される。プロセッサ130は信号の実行および演算処理を行うことによって表皮ユニット11の関連した相互作用情報の表示を制御する。プロセッサ130は制御信号を生成でき、命令出力制御インターフェイス134および駆動回路素子100を通じて可動本体上の関連するアクチュエータ101に伝達し、可動本体の相互作用効果を備えた動作を制御する。メモリ135を通じてデータ保存またはデータの一時保存が行われる。
【0021】
図6は、本発明の実施例の表面に情報表示および相互作用機能を備える可動装置の顔面表情を示す模式図である。図7は本発明の表面に情報表示および相互作用機能を備える可動装置の実施状態を示す斜視図である。表皮ユニット11上のタッチセンサユニットが操作人員のタッチ動作を感知したとき、制御ユニットは表皮ユニット上のタッチセンサユニットのタッチ強弱および位置に基づいて対応する動作の判断をしたり、または可撓性ディスプレイに生物の皮膚に類似した柔軟性を達成させ、皮膚の色または図案の変化を表示させたりする。タッチセンサユニットはヒューマンマシンインターフェイスとすることができ、本発明において更に重要なのは、人間型ロボット相互作用インターフェイスである。
【0022】
図6に示すように、例えば、操作人員が表皮ユニット上のタッチセンサユニットに触れたとき、可動本体上の顔部上の表皮ユニットは喜怒哀楽または赤面などの表情を表示することができる。また、可動本体が玩具のとき、使用者はタッチ操作制御によって玩具の色または衣装の変更を随時行うことができ、娯楽性を増強できる。図7に示すように、可動装置1がサービスロボットの場合、ロボットの可動本体の身体部分を礼服にすることができ、顔部の表情もサービスの状況に合わせて変更することができ、人間性のあるサービスを行うことができる。
【0023】
図8は、本発明の表面に情報表示および相互作用機能を備える可動装置の知覚入力ユニットのその他の実施例を示すブロック図である。知覚入力ユニット14はI/Oインターフェイス133を通じて制御ユニット13と接続され、図9に示すように、知覚入力ユニット14は可動本体10上に設置される。図8に示すように、知覚入力ユニット14は環境センサ140および情報識別装置141を備える。環境センサ140は外部環境の状況を感知して感知信号を生成して制御ユニット13に与え、制御ユニット13は感知信号に基づいて表皮ユニット11を制御し、状況に基づいて相互作用情報および相互作用効果を表示する。
【0024】
・・・また、図9に示すように、環境センサ140は入力インターフェイスを備え、生理信号の入力、使用者の神経に伝達される電子信号、使用者の心情変化の信号またはそれらを組み合わせた信号入力を受信することができる。例えば、使用者が生理信号の入力を感知できるアームバンド1402またはセンサマット1401をセットしたとき、可動装置1は使用者の生理状態、緊張または怒りを知ることができ、相互作用動作または表皮ユニットを通じて対応する色または図案によって使用者を慰めたり、励ましたりして使用者の心情を調節する。・・・
【0025】
知覚入力ユニット14が情報識別装置141のとき、情報識別装置141は入力情報を受信し、判断解析を行い、解析信号を生成して制御ユニット13に与え、制御ユニット13は解析信号に基づいて表皮ユニット11を制御して状況に基づいて相互作用情報および相互作用効果を表示する。情報識別装置141はネットワークから入力情報を取得することができる。入力情報は、文字情報、ボイス情報、画像情報またはそれらを組み合わせたものとすることができ、例えば、環境路面高低変化、環境路面幅変化、環境画像、ボイス入力信号、回答の語句指令などである。入力情報が文字情報の場合、情報識別装置は文字情報の解析および分類判断を行い、文字情報分類の結果から解析信号を形成する。入力情報がボイス情報の場合、情報識別装置はボイス情報の解析および分類判断を行うことができ、特定の語彙または音声を取得し、結果を特定の分類特性とし、解析信号を形成する。また、入力情報が画像情報の場合、情報識別装置は静態または動態の画像情報の解析および分類判断を行い、特定画像の認識結果を取得し、解析信号を形成する。」

「【0029】
以上の説明は、本発明の好適な実施例を示すものであり、本発明の範囲を制限するものではない。即ち、本発明の特許申請の範囲に基づく変化および修飾は全て本発明の範囲に含まれ、例えば、本発明の知覚入力ユニットはタッチパネルシート、複数のタッチセンサ、環境センサおよび情報識別装置などとすることができ、相互作用的にコミュニケーションされる情報交流を行うことができる。」

















(イ)上記記載から、引用文献1には、次の技術的事項が記載されているものと認められる。

a 引用文献1には、可撓性ディスプレイをロボットの表皮ユニットに応用することで、人間(操作人員)と相互作用的にコミュニケーションを行うロボット(【0006】、【0029】)が記載されているところ、当該ロボットは、「人間型」(【0021】)であり、「複数の身体部材が組み合わさった機械」(【0013】)である上に、可撓性ディスプレイ(表皮ユニット)が顔の表情を表すこと(【0022】)から、人体に模した形状のものであると認められる。

b 表皮ユニット11は、人間型ロボットの可動本体10のケーシングの表面に貼設される(【0014】)ところ、ロボットの顔部上にも表皮ユニット11は存在し(【0022】)、当該表皮ユニット11の可撓性ディスプレイ110の上に、タッチセンサユニット112が貼設されること(【0015】)が認められる。
また、図2及び図5において、表皮ユニット11は、可撓性ディスプレイ110とタッチセンサユニット112を含むように示されているから、可撓性ディスプレイ110とタッチセンサユニット112を合わせて、表皮ユニット11が構成されていることを理解できる。

c 表皮ユニット11を構成する可撓性ディスプレイ110は、生物の皮膚に類似した柔軟性を有する(【0021】)ことから、表皮ユニット11は柔軟素材からなると認められる。

d 表皮ユニット11に関する図2の実施例では、知覚入力ユニット14がタッチセンサユニット112を備え、タッチ操作によって生成されたタッチ制御信号を受信することができる(【0015】)ことから、表皮ユニット11のタッチセンサユニット112は、知覚入力ユニット14に信号を送信していることを理解できる。

e 知覚入力ユニット14に関する図8の実施例では、知覚入力ユニット14の情報識別装置141は、入力情報を受信して判断解析を行うことによって、解析信号を生成し(【0025】)、プロセッサ130は、当該解析信号に基づき、表皮ユニット11を制御して相互作用情報を表示する(【0019】−【0022】、【0025】)と認められるところ、上記dの理解をふまえると、情報識別装置141の入力情報には、タッチセンサユニット112が生成するタッチ感知信号(【0019】)も含まれると解される。
また、情報識別装置141の入力情報には、文字情報、ボイス情報、画像情報またはそれらを組み合わせたもの(【0025】)が含まれることを理解できる。

f 表皮ユニット11に表示される相互作用情報は、色、図案または文字などの情報であるが、それだけに制限されない(【0014】)から、喜怒哀楽または赤面などの表情の変化(【0022】)や、皮膚の色の変化(【0021】)が含まれると解され、可撓性ディスプレイ110は、解析信号に基づいてそのような相互作用情報を表示すると認められる。

(ウ)上記(ア)、(イ)から、引用文献1には、次の発明(以下、「引用発明」という。)が記載されていると認められる。

「人体に模した形状であって操作人員と相互作用的にコミュニケーションを行う人間型ロボットにおいて、
前記人間型ロボットの可動本体10のケーシングの表面に貼設される柔軟素材からなる表皮ユニット11と;
前記操作人員のタッチ動作を感知するタッチセンサユニット112が生成するタッチ感知信号及びその他のセンサが測定したボイス情報及び画像情報などの入力情報を受信して判断解析を行うことによって、解析信号を生成する情報識別装置141と;
前記解析信号に基づいて、喜怒哀楽または赤面などの表情の変化、または、皮膚の色の変化を表示する可撓性ディスプレイ110と;
前記解析信号に基づき表示を制御するプロセッサ130と;を備え、
表皮ユニット11は、可動本体10の顔部上に存在し、当該表皮ユニット11の可撓性ディスプレイ110の上に、タッチセンサユニット112が貼設され、可撓性ディスプレイ110とタッチセンサユニット112を合わせて、表皮ユニット11が構成されている人間型ロボット。」

イ 引用文献2
(ア)この審決で新たに引用する、本願出願前に頒布された又は電気通信回線を通じて公衆に利用可能となった文献である、米国特許出願公開第2011/0144804号明細書(2011年(平成23年)6月16日外国公開。以下、「引用文献2」という。)には、図面とともに、次の記載がある。なお、括弧内に当審での翻訳文を併記する。(下線は理解の便のため当審にて付与。)

a「[0014] A further objective of the present invention is to provide a method for expressing robot autonomous emotions, comprising: obtaining sensed information by a sensor; recognizing current user emotional states based on the sensed information and calculating user emotional strengths based on the current user emotional states by an emotion recognition unit; generating robot emotional states based on the user emotional strengths; calculating a plurality of weights of output behavior by a fuzzy-neuro network based on the user emotional strengths and a rule table; and expressing a robot emotional behavior based on the weights and the robot emotional states.」([0014]本発明のさらなる目的は、ロボットの自律的な感情を表現するための方法を提供することであって、当該方法は、センサーによって検知された情報を取得することと;感情認識手段によって、検知された情報に基づく現在のユーザの感情の状態を認識し、現在のユーザの感情の状態に基づくユーザの感情の強さを計算することと;ユーザの感情の強さに基づいて、ロボットの感情の状態を生成することと;前記ユーザの感情の強さとルールテーブルに基づくファジイ・ニューロネットワークによって、複数の出力挙動の重みを計算することと;ロボットの感情の状態に基づいて、ロボットの感情的な挙動を表現することを含む。)

b「[0018] AS above-described device and method, the sensed information comprises information obtained by at least one of a camera, a microphone, an ultrasonic device, a laser scanner, a touch sensor, a complementary metal oxide semiconductor (CMOS) image sensor, a temperature sensor and a pressure sensor, or their combination in part.」([0018]上述の装置及び方法において、検知された情報は、カメラ、マイクロホン、超音波装置、レーザ走査装置、タッチセンサ、相補型金属酸化膜半導体(CMOS)画像センサ、温度センサ、及び圧力センサのうちの少なくとも1つまたはそれらの組み合わせによって得られる情報を含む。)

c「[0034]・・・wherein the device for expressing robot autonomous emotions mainly comprises: a sensing unit 1, obtaining some sensed information; a user emotion recognition unit 2, recognizing a current emotional state of a user based on the sensed information; a robot emotion generation unit 3, calculating a corresponding emotional state of a robot based on the current emotional state of the user; a behavior fusion unit 4, calculating different behavior weights based on the emotional components of the robot itself ; and a robot reaction unit 5, expressing different emotional behaviors of the robot.」([0034]・・・ロボットの自律的な感情を表現するための装置は、主に以下のものからなる:幾つかの検知された情報を取得する検知部1と;検知された情報に基づいて、ユーザの現在の感情の状態を認識するユーザ感情認識部2と;ユーザの現在の感情の状態に基づいて、ロボットの対応する感情の状態を算出するロボット感情生成部3と;ロボット自身の感情的要素に基づく異なる挙動の重みを計算する挙動融合部4と;ロボットの異なる情動的な挙動を表現するロボット反応ユニット5。)

(イ)上記(ア)から、引用文献2には、次の技術的事項が記載されていると認められる。

[0018]から、センサーによって検知された情報は、カメラ、圧力センサ及びマイクロホンによって得られる情報の組み合わせを含むものであるところ、[0014]、[0018]、[0034]から、当該検知された情報は、ユーザの感情の状態を認識するための情報であるから、ユーザから得られる情報と認められる。

(ウ)上記(ア)、(イ)から、引用文献2には、次の技術的事項(以下、「引用文献2記載の技術的事項」という。)が記載されていると認められる。

「カメラ、圧力センサ及びマイクロホンによってユーザから得られる情報の組み合わせを含む検知された情報を取得し、前記検知された情報に基づいてロボットの感情状態を生成する技術。」

(3)本件補正発明と引用発明との対比
ア 本件補正発明と引用発明とを対比する。

(ア)引用発明における「操作人員」が本件補正発明の「人間」に相当することは明らかであり、同様に、「操作人員と相互作用的にコミュニケーションを行う」ことが「人間との間でコミュニケーションを行う」ことに相当するから、引用発明の「人間型ロボット」は、本件補正発明の「コミュニケーションロボット」に相当する。

(イ)引用発明における「人間型ロボットの可動本体10」は本件補正発明の「ロボット本体」に相当するところ、引用発明のケーシングは可動本体10の一部を構成するものであるから、引用発明の「人間型ロボットの可動本体10のケーシングの表面に貼設される」ことは、本件補正発明の「ロボット本体を被覆する」ことに相当する。

(ウ)引用発明における「表皮ユニット11」は本件補正発明の「皮膚部材」に相当する。

(エ)引用発明の「前記操作人員のタッチ動作を感知するタッチセンサユニット112が生成するタッチ感知信号及びその他のセンサが測定したボイス情報及び画像情報」と本件補正発明の「コミュニケーションの相手方である前記人間から受信した画像データ、圧力データ及び音声データ」を対比すると、「受信した複数のデータ」という点で共通する。
また、引用発明の「入力情報」は、外部から入力される情報であるから、本件補正発明の「外部情報」に相当する。
そして、引用発明における「解析信号」は、タッチ感知信号及びその他のセンサが測定したボイス情報及び画像情報などの入力情報を受信して判断解析を行うことによって生成されるものであって、喜怒哀楽または赤面などの表情の変化や、皮膚の色の変化の表示に利用されるものであるから(上記(2)ア(イ)e及びf)、「解析信号」には「喜怒哀楽または赤面などの表情の変化や、皮膚の色の変化」を引き起こす元となる情報が含まれているということができ、引用発明の「解析信号」は、本件補正発明の「喜怒哀楽を表す感情情報」に相当する。そして、引用発明において「入力情報を受信して判断解析を行うことによって、解析信号を生成する」ことは、本件補正発明において「外部情報を組合わせて解析することにより、前記外部情報に応じた喜怒哀楽を表わす感情情報を生成する」ことに相当するから、引用発明の「情報識別装置141」は、本径補正発明の「感情情報生成手段」に相当する。

(オ)引用発明における「前記解析信号に基づいて、喜怒哀楽または赤面などの表情の変化、または、皮膚の色の変化を表示する可撓性ディスプレイ110」と、本件補正発明の「前記感情情報を皮膚の色の変化を伴って表示する表示手段」を対比すると、当該「解析信号」は、本件補正発明の「感情情報」に相当するから、「前記感情情報を表示する表示手段」という点で共通する。

(カ)引用発明における「プロセッサ130」は、「前記解析信号に基づき表示を制御する」ところ、当該「解析信号」は、本件補正発明の「感情情報」に相当し、表示は「解析信号に基づき制御」、つまり解析信号に対応して制御されるものであり、「感情情報の表示を制御」するものと等価といえるから、引用発明における「プロセッサ130」は、本件補正発明の「制御手段」に相当する。

(キ)引用発明において「可撓性ディスプレイ110とタッチセンサユニット112を合わせて、表皮ユニット11が構成されている」ことを考慮すると、引用発明の「表皮ユニット11は、可動本体10の顔部上に存在」することは、本件補正発明の「顔面を構成する前記皮膚部材」に相当する。
また、引用発明において「表皮ユニット11の可撓性ディスプレイ110の上に、タッチセンサユニット112が貼設され」ていることは、本件補正発明において「前記表示手段を」「前記皮膚部材中に埋め込み配置した」ことに相当する。

イ 以上のことから、本件補正発明と引用発明との一致点及び相違点は、次のとおりである。

【一致点】
「人体に模した形状であって人間との間でコミュニケーションを行うコミュニケーションロボットにおいて、
ロボット本体を被覆する柔軟素材からなる皮膚部材と;
受信した複数のデータからなる外部情報を組み合わせて解析することにより、前記外部情報に応じた喜怒哀楽を表わす感情情報を生成する感情情報生成手段と;
前記感情情報を表示する表示手段と;
前記感情情報の表示を制御する制御手段と;を備え、
前記表示手段を顔面を構成する前記皮膚部材中に埋め込み配置したコミュニケーションロボット。」

【相違点1】
外部情報である「受信した複数のデータ」が、本件補正発明では、「コミュニケーションの相手方である前記人間から受信した画像データ、圧力データ及び音声データ」であるのに対して、引用発明では、「前記操作人員のタッチ動作を感知するタッチセンサユニット112が生成するタッチ感知信号及びその他のセンサが測定したボイス情報及び画像情報」である点。

【相違点2】
「表示手段」が表示する「感情情報」について、本件補正発明は、「前記感情情報を皮膚の色の変化を伴って表示する」のに対し、引用発明は、「前記解析信号に基づいて、喜怒哀楽または赤面などの表情の変化、または、皮膚の色の変化を表示する」点。

(4)判断
以下、相違点について検討する。
ア 相違点1について
引用文献2記載の技術的事項は、上記(2)イ(ウ)のとおり、検知された情報は、カメラ、圧力センサ及びマイクロホンによってユーザから得られる情報の組み合わせを含むものである。
そして、引用発明及び引用文献2記載の技術的事項のいずれも、操作人員(ユーザ)の情報に基づき、相互作用的にコミュニケーションを行うものである点で共通する技術であるから、引用発明に引用文献2記載の技術的事項を適用し、引用発明の外部情報として、「コミュニケーションの相手方である人間から受信した画像データ、圧力データ及び音声データ」を採用するように変更することは、当業者が容易に想到し得たことである。

イ 相違点2について
引用文献1には、本件補正発明の「感情情報」に相当する「解析信号」に基づく表示を行う際に、皮膚の色の変化の表示を伴っているか明記されていないものの、引用文献1の段落【0021】に「可撓性ディスプレイに生物の皮膚に類似した柔軟性を達成させ、皮膚の色または図案の変化を表示させたりする。」と、皮膚の色の変化を表示させることについて記載がある。また、図6の上段中央の図において、眉毛や口元について、はにかむような表情を表示するとともに、頬にあたる箇所を別色で表示させる点が看取されることから、引用発明において、喜怒哀楽の変化の表示に皮膚の色の変化の表示を組み合わせて、喜怒哀楽を表す感情情報を皮膚の色の変化を伴って表示することは、当業者が容易に想到し得たことである。

ウ 小括
したがって、本件補正発明は、引用発明、引用文献2記載の技術的事項及び引用文献1の記載に基いて、当業者が容易に発明をすることができたものであり、特許法第29条第2項の規定により、特許出願の際独立して特許を受けることができないものである。

3 本件補正についてのむすび
以上のとおり、本件補正は、特許法第17条の2第6項において準用する同法第126条第7項の規定に違反するので、同法第159条第1項において読み替えて準用する同法第53条第1項の規定により却下すべきものである。
よって、上記補正の却下の決定の結論のとおり決定する。

第3 本願発明について
1 本願発明
令和3年8月6日にされた手続補正は、上記のとおり却下されたので、本願の請求項に係る発明は、令和2年12月14日にされた手続補正により補正された特許請求の範囲の請求項1ないし3に記載された事項により特定されるものであるところ、その請求項1に係る発明(以下「本願発明」という。)は、その請求項1に記載された事項により特定される、上記第2[理由]1(2)に記載のとおりのものである。

2 原査定の拒絶の理由
原査定の拒絶の理由2は、本願発明は、本願出願前に頒布された又は電気通信回線を通じて公衆に利用可能となった下記の引用文献1に記載された発明に基づいて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条2項の規定により特許を受けることができない、というものである。

引用文献1:特開2008−149442号公報

3 引用文献
原査定の拒絶の理由で引用された引用文献1及びその記載事項は、上記第2の[理由]2(2)に記載したとおりである。

4 対比・判断
本願発明は、上記第2の[理由]2で検討した本件補正発明から、「コミュニケーションの相手方である前記人間から受信した画像データ、圧力データ及び音声データからなる外部情報を組合わせて解析することにより、」という事項を削除し、本件補正発明の「前記外部情報に応じた」を「外部情報に応じて」といい換えたものである。
そうすると、本願発明と引用発明は、上記第2の[理由]2(3)と同様の対比関係にあるということができ、本願発明と引用発明は、相違点2でのみ相違する。
そして、上記第2の[理由]2(4)イに記載したとおり、引用文献1の記載に基づいて、相違点2に係る本件補正発明の特定事項に想到することは当業者が容易になし得るものであることから、同様に、本願発明は、引用発明及び引用文献1の記載に基づいて、当業者が容易に発明をすることができたものである。

第4 むすび
以上のとおり、本願発明は、特許法29条2項の規定により特許を受けることができないから、他の請求項に係る発明について検討するまでもなく、本願は拒絶されるべきものである。

よって、結論のとおり審決する。

 
別掲 (行政事件訴訟法第46条に基づく教示) この審決に対する訴えは、この審決の謄本の送達があった日から30日(附加期間がある場合は、その日数を附加します。)以内に、特許庁長官を被告として、提起することができます。
 
審理終結日 2022-05-31 
結審通知日 2022-06-07 
審決日 2022-06-21 
出願番号 P2016-234310
審決分類 P 1 8・ 121- Z (B25J)
P 1 8・ 575- Z (B25J)
最終処分 02   不成立
特許庁審判長 刈間 宏信
特許庁審判官 見目 省二
中里 翔平
発明の名称 コミュニケーションロボット  
代理人 萩原 誠  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ