• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 5項独立特許用件 取り消して特許、登録 G10L
審判 査定不服 2項進歩性 取り消して特許、登録 G10L
管理番号 1287179
審判番号 不服2013-18258  
総通号数 174 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2014-06-27 
種別 拒絶査定不服の審決 
審判請求日 2013-09-23 
確定日 2014-05-19 
事件の表示 特願2011- 76604「ビデオ会議に翻訳を追加するための方法及びシステム」拒絶査定不服審判事件〔平成23年10月20日出願公開、特開2011-209731、請求項の数(25)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、平成23年3月30日(パリ条約による優先権主張2010年3月30日、米国)の出願であって、原審において平成24年10月11日付けで拒絶理由が通知され、平成25年4月22日付けで手続補正がされたが、同年5月8日付けで拒絶査定がなされ、これに対し、同年9月23日に拒絶査定不服の審判が請求されるとともに、同日付けで手続補正がされたものである。

第2 平成25年9月23日付けの手続補正(以下、「本件補正」という。)の適否
1.補正の内容
上記手続補正は補正前の平成25年4月22日付け手続補正書の特許請求の範囲の請求項1に記載された

「【請求項1】
ビデオ会議多地点制御ユニットのためのリアルタイム音声翻訳機であって、
複数の音声ストリームを調べて、翻訳のために、前記複数の音声ストリームのサブセットを選択する制御部と、
前記音声ストリームのサブセットに含まれる発話を翻訳する複数の翻訳機リソースであって、
それぞれ、前記複数の音声ストリームの1又は複数の前記サブセットにおける発話を、1又は複数の言語のテキストに変換する複数の音声認識エンジンと、
前記複数の音声認識エンジンに接続され、それぞれ、テキストを1又は複数の言語から1又は複数の別の言語に翻訳する複数の翻訳エンジン
を備える前記複数の翻訳機リソースと、
前記制御部に接続され、該制御部によって選択された前記複数の音声ストリームの前記サブセットを、翻訳のために、前記複数の翻訳機リソースに渡す翻訳機リソースセレクタと
を備えることを特徴とするリアルタイム音声翻訳機。」

という発明を、

「【請求項1】
ビデオ会議多地点制御ユニットのためのリアルタイム音声翻訳機であって、
複数の音声ストリームを調べて、翻訳のために、前記複数の音声ストリームのサブセットを選択する制御部と、
前記音声ストリームのサブセットに含まれる発話を翻訳する複数の翻訳機リソースであって、
それぞれ、前記複数の音声ストリームの1又は複数の前記サブセットにおける発話を、1又は複数の言語のテキストに変換する複数の音声認識エンジンと、
前記複数の音声認識エンジンに接続され、それぞれ、テキストを1又は複数の言語から1又は複数の別の言語に翻訳する複数の翻訳エンジン
を備える前記複数の翻訳機リソースと、
前記制御部に接続され、該制御部によって選択された前記複数の音声ストリームの前記サブセットを、翻訳のために、前記複数の翻訳機リソースに渡す翻訳機リソースセレクタであって、会議出席者によって話された予め決められた言葉の音声に基づいて、前記複数の音声ストリーム中の或る音声ストリームの言語を選択する言語選択手段を備えた前記翻訳機リソースセレクタと
を備えることを特徴とするリアルタイム音声翻訳機。」

と補正するものであり、また、独立請求項である本件補正前の請求項10及び19についても同様に補正をするものである。

2.補正の適否
本件補正は、請求項1に記載した発明を特定するために必要な事項である「翻訳機リソースセレクタ」について、「翻訳機リソースセレクタであって、会議出席者によって話された予め決められた言葉の音声に基づいて、前記複数の音声ストリーム中の或る音声ストリームの言語を選択する言語選択手段を備えた前記翻訳機リソースセレクタ」との限定を付加するものであって、補正前の請求項1に記載された発明と補正後の請求項1に記載された発明の産業上の利用分野及び解決しようとする課題が同一であるから、特許法第17条の2第5項第2号の特許請求の範囲の減縮を目的とするものに該当する。
また、特許法第17条の2第3項、第4項に違反するところはない。
そこで、まず、本件補正後の前記請求項1に記載された発明(以下、「補正発明」という。)が特許法第17条の2第6項において準用する同法第126条第7項の規定に適合するか(特許出願の際独立して特許を受けることができるものであるか)について以下に検討する。

(1)刊行物の記載事項
A 原査定の拒絶の理由に引用された特表2004-531952号公報(以下、「刊行物1」という。)には、図面とともに以下の事項が記載されている。

イ.「【0001】
[発明の背景]
発明の技術分野
本発明は、一般に会議システムに関し、より詳細には多地点音声及び/またはマルチメディア会議のための制御ユニットに関する。
従来技術の説明
現在の音声会議あるいはビデオ会議では、参加者は1つの会議に参加できる実体である(すなわち、参加者は1つの会議で発言及び/または聴取を行うことができる)。しかしながら、しばしば参加者は1つのグループに対し発言し、それと同じ時間帯に関連した会議あるいは関連のない会議の他のグループの話を聞く必要があるかもしれない。」(5頁)

ロ.「【0011】
図1Aは、複数のエンドポイント(endpoint)1110aa-nk、オペレータ1115、マルチメディア信号1120aa-nk、マルチメディア通信1122a-k、複数のネットワーク1130a-k及びMCCU(Multimedia Conference Control Unit)1140からなる会議環境100の全体を示す一例となるブロック図である。一実施例において、MCCU1140は、NI(Network Interface)1142、CACI(Compressed Audio Common Interface)110、音声ユニット1160、MCS(Management and Control System)1170、制御信号1174、ホスト1200及び映像ユニット1300を備える。他の実施例では、映像セクションを備えていないかもしれないし、また音声会議のみのために利用されるかもしれない。
【0012】
複数のエンドポイント1110aa-nkが、複数のネットワーク1130a-kを介しMCCU1140に接続される。MCCU1140は、例えば、MCUあるいは音声のみの多地点接続装置(音声ブリッジ)であってもよい。MCCU1140及び/あるいはその構成要素の少なくとも一部は、ハードウェア及び/あるいはソフトウェアにより実現される論理ユニットである。MCS1170は、制御モジュールであってもよいし、MCCU1140の動作を制御する論理ユニットであってもよい。」(8頁)

ハ.「【0032】
図2は、CCDBの一例である。各列は会議及び当該会議に関連付けされたブリッジ150(図1A)を表す。図2で、参加者は1からN+2にラベル付けされ、会議はAからXにラベル付けされる。会議に利用されるブリッジはB1からBzにラベル付けされる。フランス語を話す参加者は「F」、英語を話す参加者は「E」が付けられる。英語からフランス語への通訳は「EF」、フランス語から英語への通訳は「FE」が付けられる。利用されるCODEC」はC01からCkにラベル付けされる。「N」の付いたセルはノーマル状況を、「S」の付いたセルは発言状況を、空のセルは「None」状況を表す。
【0033】
例えば、列A202(すなわち、会議A)はブリッジ#3(すなわち、B3)を使い、第1行はCODEC#11(C11)206を使っている参加者#1である。現在の例は5つの会議を有するケースを示している。第1会議は会議Aであり、ブリッジとしてB3を利用する。会議Aは1、2、3、4、5、6とラベル付けされた6人の参加者を有し、それぞれC11、C21、C13、C05、C07及びC06を有するCODEC120(図1B)を利用する。この会議では、(英語を話す人々)参加者1、3、5と(フランス語から英語への通訳)6の接続状況は「ノーマル」(N)である。Nの接続状況は、参加者が会議において発言及び聴取が可能であるということを意味する。会議に関連付けされるブリッジ150、この場合ブリッジB3は、参加者1、2、3、4、5、6の1人と関連付けされる各デコーダ122(図1B)から復号化情報126を取得し、その結果、参加者の復号化情報が当該会議の他の音声信号とミキシングされ、参加者1、2、3、4、5、6は聴取される。1、3、5及び6の各参加者に対し、参加者に関連付けされるエン
コーダ124(図1B)は、参加者1、3、5及び6が会議を聴取できるようブリッジ(B3)の合成出力128(図1B)を取得する。
【0034】
会議Aにおいて、(フランス語を話す)参加者2と4の接続状況は「発言」(S)である。Sの接続状況は、参加者2と4が会議において聴取されうるが、その会議を聞くことはできないということを意味している。参加者2と4の各々に対し、会議に関連付けられるブリッジ150、この場合ブリッジB3は、復号化情報が会議の他の音声信号とミキシングされ、参加者2と4が聴取されることが可能になるよう参加者に関連付けされたデコーダ122から復号化情報126を取得する。
【0035】
第2の一例となる会議である会議BはブリッジB1を利用する。会議Bは、1、2、3、4、5及び7の6人の参加者からなり、それぞれがCODEC番号C11、C21、C13、C05、C07及びC17を利用し、会議に接続されている。この会議では、(英語を話す)参加者1、3及び5の接続状況はSである。従って、参加者1、3及び5は会議においてその発言が聴取されるが、聞くことはできない。会議に関連付けられるブリッジ150、ここではブリッジB1は、参加者1、3及び5のデコーダ122から、これらの参加者の音声信号が会議の残りの音声信号とミキシングされるよう復号化情報を取得する。
【0036】
会議Bに関して、さらに、(フランス語を話す)参加者2と4、及び(英語からフランス語への通訳)参加者7の接続状況は「ノーマル」(N)である。従って、参加者2、4及び7は、当該会議での発言及び聴取の両方が可能である。参加者2、4及び7の各々の発言は、これらの参加者に関連付けされているデコーダ122から復号化情報を取得するブリッジB1により可能にされ、これらの参加者の復号化情報は当該会議の他の音声信号とミキシングされ、参加者2、4及び7の発言は聴取可能となる。参加者の1人に関する聴取処理は、ブリッジ(B1)の合成出力128を取得する参加者に関連づくされているエンコーダ124により可能にされる。」(12?13頁)

上記刊行物1の記載及び図面並びにこの分野における技術常識を考慮すると、上記イ.の【0001】における「本発明は、一般に会議システムに関し、より詳細には多地点音声及び/またはマルチメディア会議のための制御ユニットに関する。」との記載、上記ロ.の【0011】における「図1Aは、複数のエンドポイント(endpoint)1110aa-nk、オペレータ1115、マルチメディア信号1120aa-nk、マルチメディア通信1122a-k、複数のネットワーク1130a-k及びMCCU(Multimedia Conference Control Unit)1140からなる会議環境100の全体を示す一例となるブロック図である。」との記載、及び図1Aによれば、会議システムは、エンドポイント(1110aa-nk)と、MCCU(Multimedia Conference Control Unit)(1140)とを備えている。
また、上記ハ.の【0032】における「図2で、参加者は1からN+2にラベル付けされ、会議はAからXにラベル付けされる。会議に利用されるブリッジはB1からBzにラベル付けされる。フランス語を話す参加者は「F」、英語を話す参加者は「E」が付けられる。英語からフランス語への通訳は「EF」、フランス語から英語への通訳は「FE」が付けられる。」との記載、同ハ.の【0033】における「第1会議は会議Aであり、ブリッジとしてB3を利用する。会議Aは1、2、3、4、5、6とラベル付けされた6人の参加者を有し、それぞれC11、C21、C13、C05、C07及びC06を有するCODEC120(図1B)を利用する。この会議では、(英語を話す人々)参加者1、3、5と(フランス語から英語への通訳)6の接続状況は「ノーマル」(N)である。Nの接続状況は、参加者が会議において発言及び聴取が可能であるということを意味する。」との記載、及び図2によれば、会議システムは、会議(A)において、英語を話す参加者(1、3、5)と、フランス語から英語への通訳(6)が、発言及び聴取が可能である。すなわち、フランス語から英語へ翻訳する場合、前述のエンドポイントに通訳(6)を介して翻訳していることが読み取れる。

したがって、上記刊行物1には、以下の発明(以下、「引用発明」という。)が記載されているものと認められる。

「MCCU(Multimedia Conference Control Unit)(1140)を用いたエンドポイントに通訳(6)を介して翻訳する会議システム。」

B 原査定の拒絶の理由に引用された特表2010-506444号公報(以下、「刊行物2」という。)には、図面とともに以下の事項が記載されている。

ニ.「【技術分野】
【0001】
本発明は、通信技術の分野に関し、特に、多言語会議を実現するシステムおよび方法に関する。」(3頁)

ホ.「【0025】
図4は、本発明の一実施形態の適用状況を示している。各会議会場は会議端末に対応しており、多地点会議システムの会議会場のうちの任意の1つが、各会議会場の発話に対する中国語から英語への通訳、または英語から中国語への通訳を担当する通訳用会議会場に割り当てられている。図5では、本発明の本実施形態によるシステムは、各会議端末とMCUとを含んでいる。
【0026】
以下では、本発明のシステムの第1の実施形態について説明する。
【0027】
会議端末および通訳端末(通訳用会議会場の会議端末を「通訳端末」と呼ぶ)は、入出力インタフェースを1つだけ使用し、MCUは複数の音声チャネルからの音声混合を採用し、MCUは各会議端末が対応する言語と、通訳端末として動作する会議端末とを割り当てる。この方式では、会議端末および通訳端末に対する特別な要件はなく、作業の大部分はMCUによって達成される。以下では、各部の詳細を説明する。
【0028】
図6に示されるように、会議端末は現場で入力されたオーディオ信号を収集し、これらの信号を符号化し、符号化された信号をMCUへ送信する。会議端末はまた、MCUから送信されたオーディオ符号ストリームを受信し、このオーディオ符号ストリームを復号後に再生する。したがって、会議端末は入力言語と出力言語とを区別する必要がない。
【0029】
通訳端末は、各会議会場における発話の言語を通訳すること、たとえば、中国語の発話を英語に通訳すること、または英語の発話を中国語に通訳することを担当する。この実施形態では、通訳用会議会場において、通訳者による同時通訳が行われてよく、あるいは、通訳機を用いることによるインテリジェント同時機械通訳が行われてもよい。同時通訳が導入されるため、通訳に起因する会議の遅延は本質的に無視でき、これによって確実に会議を円滑に完了することができるようになる。
【0030】
図7に示されるように、MCUは会議を設定する際に、まず、各会議端末に対して言語情報を割り当て、同時通訳機能を有する会議端末を通訳端末として割り当てる。たとえば、会議端末1の言語として中国語が割り当てられ、会議端末2の言語として英語が割り当てられ、その一方で、会議端末3が通訳端末として割り当てられる。MCUが会議端末からオーディオデータを受信すると、まず復号が行われ、次に復号された音声データが、会議端末に対して割り当てられた言語情報に従って、音声混合のために対応する言語混合器へ送信される。たとえば、中国語が割り当てられている会議端末については、MCUは、この会議端末の受信オーディオデータを音声混合のために中国語の混合器へ送信し、英語が割り当てられている会議端末のオーディオデータを音声混合のために英語の混合器へ送信する。通訳端末からMCUへ送信されるオーディオデータは必ず音声混合に参加し、このオーディオデータがどの言語の音声混合に参加するかは、後に説明する。MCUが、異なる各言語に応じて個別に音声混合を実行した後、種々の言語に対する音声混合方針には従来技術が参考にされてよく、音声混合後のデータは、対応する各言語が割り当てられた会議端末にそれぞれ送信される。たとえば、中国語の音声混合に参加している会議端末は、中国語の音声混合がなされた対応するデータを受信し、英語の音声混合に参加している会議端末は、英語の音声混合がなされた対応するデータを受信する。」(6?7頁)

上記刊行物2の記載及び図面並びにこの分野における技術常識を考慮すると、上記ホ.の【0025】における「図4は、本発明の一実施形態の適用状況を示している。各会議会場は会議端末に対応しており、多地点会議システムの会議会場のうちの任意の1つが、各会議会場の発話に対する中国語から英語への通訳、または英語から中国語への通訳を担当する通訳用会議会場に割り当てられている。図5では、本発明の本実施形態によるシステムは、各会議端末とMCUとを含んでいる。」との記載、図4及び図5によれば、多地点会議システムは、会議端末と、MCUとを備えている。
また、上記ホ.の【0027】における「会議端末および通訳端末(通訳用会議会場の会議端末を「通訳端末」と呼ぶ)は、入出力インタフェースを1つだけ使用し、MCUは複数の音声チャネルからの音声混合を採用し、MCUは各会議端末が対応する言語と、通訳端末として動作する会議端末とを割り当てる。この方式では、会議端末および通訳端末に対する特別な要件はなく、作業の大部分はMCUによって達成される。」との記載によれば、多地点会議システムは、通訳端末を備え、通訳を介し、翻訳していることが読み取れる。

したがって、上記刊行物2には、以下の発明(以下、「技術事項1」という。)が記載されているものと認められる。

「MCUを用いた通訳端末に通訳を介して翻訳する多地点会議システム。」

C 原査定の拒絶の理由に引用された特開2008-83376号公報(以下、「刊行物3」という。)には、図面とともに以下の事項が記載されている。

ヘ.「【技術分野】
【0001】
この発明は、複数の利用者の音声を翻訳して他の利用者に提供する音声翻訳装置、音声翻訳方法、音声翻訳プログラムおよび端末装置に関するものである。」(6頁)

ト.「【0020】
図1は、第1の実施の形態にかかる音声翻訳装置100を含む会議システムの構成を示す説明図である。同図に示すように、本会議システムは、音声翻訳装置100と、複数の端末装置200a、200b、200z(以下、端末装置200という。)とが、ネットワーク300を介して接続されている。
【0021】
端末装置200は、各参加者に対して設置される音声の入出力を行う装置である。ネットワーク300は、音声データを伝送可能なネットワークであれば、電話回線、インターネット、無線ネットワークなどあらゆるネットワークを適用できる。
【0022】
ここで、本実施の形態における音声翻訳処理の概要について説明する。本実施の形態では、音声と動画の時間的なずれを解消するだけでなく、参加者間の時間のずれについても解消することを目的としている。
【0023】
なお、上記問題は次の条件でのみ発生する。(1)参加者が3人以上、(2)参加者のうち少なくとも1人は異なる言語を話す、(3)翻訳には言語的な制約や処理速度によって遅延が発生する、(4)各参加者間の声は音声翻訳装置100を通してのみ聞くことができる。
【0024】
例えば、参加者が3人であり、そのうち1人だけが異なる言語を母語とする場合を想定する。同じ言語を話す参加者をA1とA2とし、異なる言語を話す参加者をB1とする。A1が端末装置200aを使用して話すと、音声がネットワーク300を通じて音声翻訳装置100に送信される。
【0025】
音声翻訳の必要のないA2に対しては、すぐに音声を伝送せずに記憶しておく。B1へ伝送する音声は音声翻訳を実行し音声に変換する。この変換が完了した後、A2に対して記憶していた元の音声を伝送し、B1には音声翻訳後の音声を伝送する。
【0026】
全員が異なる言語を話す場合も同様である。例えば、3人ともが異なる言語A,B,Cをそれぞれ母語とする場合を想定する。Aが端末装置200aを使用して話すと、音声翻訳装置100が発話した音声を受け取り、Bの言語とCの言語に変換する。ただし、この変換が同時に終了するわけではない。したがって、翻訳元の音声が同じである翻訳音声がすべて揃うまでは出力する音声を記憶しておき、すべての言語について出力音声が揃った時点で翻訳した音声を出力する。
【0027】
このように、ある参加者に対して音声が出力可能になった場合であっても、他のすべての参加者に対して出力すべき音声が揃ってから音声を出力する。これにより、各参加者に発話内容を出力する時間差を最小限にし、参加者が会議の進行についていくことが困難となる問題を回避できる。
【0028】
図2は、第1の実施の形態にかかる端末装置200の構成を示すブロック図である。同図に示すように、端末装置200は、音声入力部201と、送信部202と、第1受信部203と、音声出力部204と、を備えている。
【0029】
音声入力部201は、入力された音声を電気信号(音声データ)に変換し、音声データを送信部202に出力するものである。以下では、音声データを単に音声という。音声入力部201は、一般的に用いられているマイクロフォンなどにより実現することができる。
【0030】
送信部202は、音声入力部201が入力した音声を音声翻訳装置100に送信するものである。第1受信部203は、音声翻訳装置100が生成した翻訳音声または翻訳元の音声を受信するものである。
【0031】
音声出力部204は、第1受信部203が受信した音声を出力するものであり、一般的なスピーカなどにより構成することができる。なお、音声入力部201および音声出力部204は、電話やヘッドセットのように一体的に構成されるものを用いてもよい。
【0032】
図3は、第1の実施の形態にかかる音声翻訳装置100の構成を示すブロック図である。同図に示すように、音声翻訳装置100は、音声記憶部110と、対応記憶部120と、受信部130と、生成部140と、出力制御部150と、送信部160と、を備えている。
【0033】
音声記憶部110は、各端末装置から受信した音声を言語ごとに記憶するものである。音声記憶部110は、言語ごとに音声を記憶するため、言語ごとの記憶部(言語1記憶部111、言語2記憶部112、・・・、言語n記憶部11n)を備えている。
【0034】
対応記憶部120は、各端末装置で使用する使用言語を対応づけて記憶するものである。対応記憶部120には、端末装置を一意に識別する識別子と使用言語とを対応づけたマッピングテーブル121が記憶されている。
【0035】
マッピングテーブル121には、端末装置200がネットワーク300を介して音声翻訳装置100に接続されたときに端末装置200側から送信された識別子と使用言語の情報が記憶される。
【0036】
なお、音声記憶部110、および対応記憶部120は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
【0037】
受信部130は、各端末装置200からネットワーク300を介して送信される音声を受信するものである。なお、受信部130は、音声と共に送信された端末装置200の識別子も受信する。受信部130は、生成部140と出力制御部150とに受信した音声および識別子を渡す。出力制御部150に音声を渡すのは、当該音声と同一の言語を用いる端末装置200に対して当該音声をそのまま送信する場合があるためである。
【0038】
生成部140は、音声翻訳装置100で使用されるすべての言語間で音声翻訳を行うものである。例えば、日本語、英語、中国語の3ヶ国語が使用される場合は、日本語と英語間、英語と中国語間、中国語と日本語間の音声翻訳を行う。
【0039】
なお、生成部140は、受信した音声を認識して文字列を出力する音声認識処理、認識した文字列などの認識結果を用いて翻訳の対象言語で翻訳する機械翻訳処理、翻訳結果である対象言語の文字列を合成した音声を生成する音声合成処理を行うことにより、翻訳音声を生成する。
【0040】
この際に行われる音声認識処理では、LPC分析、隠れマルコフモデル(HMM:Hidden Markov Model)、ダイナミックプログラミング、ニューラルネットワーク、Nグラム言語モデルなどを用いた、一般的に利用されているあらゆる音声認識技術を適用することができる。
【0041】
また、機械翻訳処理では、トランスファ方式、用例ベース方式、統計ベース方式、中間言語方式などの、一般的に利用されているあらゆる翻訳技術を適用することができる。
【0042】
また、音声合成処理では、音声素片編集音声合成、フォルマント音声合成、音声コーパスベースの音声合成、テキストトゥスピーチなどの一般的に利用されているあらゆる方法を適用することができる。
【0043】
また、生成部140は、受信した音声の音声区間に関する情報を対応づけて翻訳した音声を出力する。なお、生成部140は、音量が予め定められた閾値より相対的に長い区間を音声区間とする方法など、従来から用いられているあらゆる音声区間検出技術を適用して音声区間を検出する。」(7?10頁)

上記刊行物3の記載及び図面並びにこの分野における技術常識を考慮すると、上記ト.の【0020】における「図1は、第1の実施の形態にかかる音声翻訳装置100を含む会議システムの構成を示す説明図である。同図に示すように、本会議システムは、音声翻訳装置100と、複数の端末装置200a、200b、200z(以下、端末装置200という。)とが、ネットワーク300を介して接続されている。」との記載、及び図1によれば、会議システムは、音声翻訳装置(100)と、複数の端末装置(200)とを備えている。
また、上記ト.の【0038】における「生成部140は、音声翻訳装置100で使用されるすべての言語間で音声翻訳を行うものである。例えば、日本語、英語、中国語の3ヶ国語が使用される場合は、日本語と英語間、英語と中国語間、中国語と日本語間の音声翻訳を行う。」との記載、同ト.の【0038】における「生成部140は、受信した音声を認識して文字列を出力する音声認識処理、認識した文字列などの認識結果を用いて翻訳の対象言語で翻訳する機械翻訳処理、翻訳結果である対象言語の文字列を合成した音声を生成する音声合成処理を行うことにより、翻訳音声を生成する。」との記載、及び図3によれば、音声翻訳装置(100)の生成部(140)は、音声を認識して文字列を出力する音声認識処理、認識した文字列などの認識結果を用いて翻訳の対象言語で翻訳する機械翻訳処理、翻訳結果である対象言語の文字列を合成した音声を生成する音声合成処理を行っている。

したがって、上記刊行物3には、以下の発明(以下、「技術事項2」という。)が記載されているものと認められる。

「音声翻訳装置(100)の生成部(140)において、音声を認識して文字列を出力する音声認識処理、認識した文字列などの認識結果を用いて翻訳の対象言語で翻訳する機械翻訳処理、翻訳結果である対象言語の文字列を合成した音声を生成する音声合成処理を行う会議システム。」

D 原査定の拒絶の理由に引用された特開2000-353161号公報(以下、「刊行物4」という。)には、図面とともに以下の事項が記載されている。

チ.「【0001】
【発明の属する技術分野】本発明は、言語又は音声翻訳システムに関する。特に、本発明は、話し言葉の言語翻訳システムの自然言語生成における文体制御に関する。」(3頁4欄)

リ.「【0015】図1は、本発明を適用した音声翻訳システム(STS)のホストとなるコンピュータシステム100の具体的な構成を示すブロック図である。コンピュータシステム100は、以下に限定されるものではないが、システムバス101を備え、システムバス101は、少なくとも1つのプロセッサ102と、少なくとも1つのデジタルシグナルプロセッサ108と、少なくとも1つのメモリ104と、少なくとも1つの大容量記憶デバイス107との間のデータ転送を可能にする。また、システムバス101は、キーボード122と、ポインティングデバイス123と、音声信号入力デバイス125とが接続され、これらからの入力が供給される。なお、これに限定されるものではない。システムバス101は、表示デバイス121と、ハードコピーデバイス124と、出力デバイス126とに出力を供給する。なお。これに限定されるものではない。出力デバイス126は、オーディオスピーカにより構成される。なお、これに限定されるものではない。
【0016】図2は、本発明を適用した音声翻訳システムのホストとなるコンピュータシステムのメモリ200の具体的な構成を示すブロック図である。入力デバイス202は、デジタイザ及びバスインターフェース204に音声信号を供給する。デジタイザ及びバスインターフェース204のデジタイザは、更なる処理を行うために、音声信号をサンプリングしてデジタル音声信号に変換する。デジタイザ及びバスインターフェース204は、デジタル音声信号をシステムバス299を介してメモリ200の少なくとも1つの音声入力データメモリ部206に記憶する。なお、これに限定されるものではない。デジタル音声信号は、メモリ200の各部200?260に記憶されたアルゴリズム及びデータを用いて、少なくとも1つのプロセッサ208により処理される。音声信号の処理に使用されるアルゴリズム及びデータは、以下に限定されるものではないが、少なくとも1つの音声認識モジュール220と、少なくとも1つの翻訳モジュール230と、少なくとも1つの音声合成モジュール240と、少なくとも1つの言語モデル250と、少なくとも1つの音響モデル260とからなるメモリ200の各部220?260に記憶されている。本発明を適用した音声認識モジュール220は、音声認識器222と、仮説構造器224とを備える。なお、これに限定されるものではない。本発明を適用した翻訳モジュール230は、以下に限定されるものではないが、形態素解析器232と、統語解析器234と、言語変換器236と、統語生成器237と、形態生成器238とを備える。出力デバイス280は、受信した音声信号に応じて翻訳された音声を出力する。
【0017】この実施例のSTSは、プロセッサをホストとする。なお。これに限定されるものではない。他の実施例では、STSは、異なるプロセッサをホストとするハードウェア及びソフトウェアの構成要素を組み合わせて構成してもよい。また、他の実施例では、それぞれ異なる音響モデル又は言語モデルからなる多数のモデル装置が、多数の異なるプロセッサをホストとしてもよい。さらに他の実施例では、音声認識モジュール、翻訳モジュール、モデルのホストとなる多数のプロセッサを有する。さらに他の実施例では、多数の異なるモデル装置が、単一のプロセッサをホストとしてもよい。
【0018】本発明は、ユーザが容易に持ち運べる携帯型ユニットとして実現してもよい。このような実施例として、図1の構成要素と図2の構成要素とを有するラップトップコンピュータがある。図2のメモリ200に示す各モジュールは、ラップトップコンピュータのランダムアクセスメモリ(RAM)に記憶されてもよく、また、RAM及び読出専用メモリ(ROM)に多様に記憶されてもよい。ROMは、取り外し可能カードであってもよい。ラップトップコンピュータとしての実施例の中には、本発明の方法に係る計算を行うために従来のプロセッサを使用するものもある。他のラップトップコンピュータとしての実施例では、計算の幾つか又は全てを行うのにデジタルシグナルプロセッサ(DSP)を使用する。」(5頁8欄?6頁9欄)

上記刊行物4の記載及び図面並びにこの分野における技術常識を考慮すると、上記リ.の【0016】における「図2は、本発明を適用した音声翻訳システムのホストとなるコンピュータシステムのメモリ200の具体的な構成を示すブロック図である。・・・本発明を適用した音声認識モジュール220は、音声認識器222と、仮説構造器224とを備える。なお、これに限定されるものではない。本発明を適用した翻訳モジュール230は、以下に限定されるものではないが、形態素解析器232と、統語解析器234と、言語変換器236と、統語生成器237と、形態生成器238とを備える。出力デバイス280は、受信した音声信号に応じて翻訳された音声を出力する。」との記載、及び図2によれば、音声翻訳システムは、音声認識モジュール(220)と、翻訳モジュール(230)とを備えている。

したがって、上記刊行物4には、以下の発明(以下、「技術事項3」という。)が記載されているものと認められる。

「音声認識モジュール(220)と、翻訳モジュール(230)とを備える音声翻訳システム。」

E 原査定の拒絶の理由に引用された特開平7-87472号公報(以下、「刊行物5」という。)には、図面とともに以下の事項が記載されている。

ヌ.「【0001】
【産業上の利用分野】本発明は、複数のシステムが、通信回線を介して画像と音声との相互通信を行うテレビ会議システムに関し、特に相手側システムからの音声を字幕スーパーインポーズとして表示する構成に関する。」(2頁1欄)

ル.「【0014】
【実施例】以下、本発明の実施例を図面を用いて詳細に説明する。図1は本発明のテレビ会議システムの実施例を示すブロック図である。図のシステムは、多重/分解部1、音声処理部3、表示装置4、テレビカメラ5、スピーカ6、マイク7、画像処理部8、音声/文字変換部9、文章変換部10からなる。ここで、多重/分解部1?マイク7は従来と同様の構成であるため、その説明は省略する。
【0015】画像処理部8は、従来と同様に、ビデオコーデックとしての機能を有すると共に、文章変換部10から出力された文字データを、多重/分解部1から出力された画像データに重畳して表示装置4に出力する機能を有している。音声/文字変換部9は、音声処理部3から出力されたアナログ音声信号を入力し、その音声データを既知の音声解析により、対応する文字データに変換する機能を有している。
【0016】文章変換部10は、音声/文字変換部9から出力された文字データを、構文解析等の方法により対応する言語データに翻訳し、これを文字データとして画像処理部8に出力するものである。また、翻訳データは交換可能なメモリカードに格納されており、このメモリカードは、英語→日本語、独語→日本語といったように、翻訳する言語別に用意されている。
【0017】次に、上記構成のテレビ会議システムの動作について説明する。先ず、画像および音声の送信側の動作は従来と同様であるため、ここでの説明は省略する。
【0018】次に、受信側の動作の場合、ディジタル回線(通信回線)を介して受信した多重化信号が多重/分解部1で分離され、画像データは画像処理部8に、音声データは音声処理部3に出力される。そして、音声データは音声処理部3で復号化されスピーカ6に対して出力されると共に、音声/文字変換部9に入力される。音声/文字変換部9では、その音声信号から音声認識を行い、対応する文字データに変換する。また、この場合、予め変換元の言語を、例えば、英語、仏語、独語といったように指定し、対応する言語の英数字等からなる文字データとして出力する。
【0019】文章変換部10では、予め翻訳する言語のメモリカードを用意し、音声/文字変換部9からの文字データを翻訳する。そして、翻訳された言語の文字データを画像処理部8に出力する。画像処理部8では、多重/分解部1からのディジタル画像データに、文章変換部10からのディジタル信号の文字データを重畳し、この画像データをアナログ変換して表示装置4に出力する。その結果、表示装置4では、相手側から送られてきた画像データと共に、その音声に相当する字幕が表示される。」(3頁3?4欄)

上記刊行物5の記載及び図面並びにこの分野における技術常識を考慮すると、上記ル.の【0014】における「図1は本発明のテレビ会議システムの実施例を示すブロック図である。図のシステムは、多重/分解部1、音声処理部3、表示装置4、テレビカメラ5、スピーカ6、マイク7、画像処理部8、音声/文字変換部9、文章変換部10からなる。」との記載、及び図1によれば、テレビ会議システムは、音声/文字変換部(9)と、文章変換部(10)とを備えている。

したがって、上記刊行物5には、以下の発明(以下、「技術事項4」という。)が記載されているものと認められる。

「音声/文字変換部(9)と、文章変換部(10)とを備えるテレビ会議システム。」

F 原査定の拒絶の理由に引用された特開2008-225191号公報(以下、「刊行物6」という。)には、図面とともに以下の事項が記載されている。

ヲ.「【要約】
【課題】複数の言語で行われる会議の議事録を作成することが出来る議事録作成装置を提供する。
【解決手段】入力した音声をその言語のテキストデータとする音声認識手段と、前記テキストデータを所定の言語に翻訳する翻訳手段と、翻訳された前記テキストデータを基に、議事録を作成する議事録作成する手段と、を備える議事録作成装置であって、入力される言語の種類と議題、レジュメ又は参考資料とを基に、それぞれ、それらに適した音響モデル及び言語モデルとを選択するモデル選択手段と、入力される言語の種類と議事録で用いられる言語の種類とを基に、翻訳辞書を選択する翻訳辞書選択手段と、を更に備え、前記音声認識手段は、前記モデル選択手段により選択された前記音響モデル及び前記言語モデルを利用し、前記翻訳手段は、前記翻訳辞書選択手段により選択された前記翻訳辞書を利用する。」(要約)

上記刊行物6の記載及び図面並びにこの分野における技術常識を考慮すると、上記ヲ.の【解決手段】における「入力した音声をその言語のテキストデータとする音声認識手段と、前記テキストデータを所定の言語に翻訳する翻訳手段と、翻訳された前記テキストデータを基に、議事録を作成する議事録作成する手段と、を備える議事録作成装置」との記載、及び図1によれば、議事録作成装置は、音声認識手段と、翻訳手段と、議事録作成手段とを備えている。

したがって、上記刊行物6には、以下の発明(以下、「技術事項5」という。)が記載されているものと認められる。

「音声認識手段と、翻訳手段と、議事録作成手段とを備える議事録作成装置。」

G 前置報告書において新たに引用された特開2001-282788号公報(以下、「刊行物7」という。)には、図面とともに以下の事項が記載されている。

ワ.「【0001】
【発明の属する技術分野】本発明は電子辞書装置に関するものであり、より具体的には、多言語機能を有する電子辞書装置に関する。」(2頁1欄)

カ.「【0007】
【発明の実施の形態】次に、図1?4を参照して本発明を適用した移動通信端末を詳細に説明する。図1は本発明を適用した移動通信端末の機能ブロック図であり、図2及び図3は本発明を適用した移動通信端末の動作を説明する処理フロー図である。図1に示すように、本発明による移動通信端末は、CPU101、RF部103、ベースバンド105、ROM107、RAM109、アンテナ125に加え、表示部111、キー113、コーデック115、MIC(マイク)117、SP(スピーカ)119、振動モータ123を備えている。移動通信端末全体の制御はCPU101によって行われる。」(2頁2欄?3頁3欄)

ヨ.「【0014】図2において、電源S/WがONされると(ステップ201)、タイマがスタートし(ステップ203)し、言語切替S/WがONされるか否か監視する(ステップ205)。さらに、タイマ時間タイムアウトの判定を行い(ステップ207)、タイムアウトした場合にはプリセット言語(ここでは英語)での入出力動作(LCD表示、キー入力など)を行う(ステップ209)。タイマ時間内に言語切替S/WがONされた場合にはユーザからの音声入力を受け取る(ステップ211)。例えば、ユーザが「ボンジュール」と発音した場合、入力された音声「ボンジュール」は音声識別用ソフトウェアによって「Bonjour」という文字データに変換される(ステップ213)。このデータと予め記憶領域(図4)に登録しておいた単語とを照合する(ステップ217)。この場合、照合一致するデータ「Bonjour」が存在するので、「Bonjour」に対応しているフランス語への切替え処理(ステップ219)を行う。なお、一致するものがない場合にはリトライ回数を確認する(ステップ215)。リトライ回数が5回未満の場合には再度ユーザからの音声入力を待つ(ステップ211)。一方、リトライ回数が5回に達した場合にはプリセット言語(英語)での入出力動作(LCD表示、キー入力など)を行う(ステップ209)。」(3頁4欄)

上記刊行物7の記載及び図面並びにこの分野における技術常識を考慮すると、上記ヨ.の【0014】における「図2において、・・・ユーザが「ボンジュール」と発音した場合、入力された音声「ボンジュール」は音声識別用ソフトウェアによって「Bonjour」という文字データに変換される(ステップ213)。このデータと予め記憶領域(図4)に登録しておいた単語とを照合する(ステップ217)。この場合、照合一致するデータ「Bonjour」が存在するので、「Bonjour」に対応しているフランス語への切替え処理(ステップ219)を行う。なお、一致するものがない場合にはリトライ回数を確認する(ステップ215)。リトライ回数が5回未満の場合には再度ユーザからの音声入力を待つ(ステップ211)。一方、リトライ回数が5回に達した場合にはプリセット言語(英語)での入出力動作(LCD表示、キー入力など)を行う(ステップ209)。」との記載、及び図2によれば、電子辞書装置は、ユーザが「ボンジュール」と発音した場合、入力された音声「ボンジュール」は音声識別用ソフトウェアによって「Bonjour」という文字データに変換される(ステップ213)。このデータと予め記憶領域(図4)に登録しておいた単語とを照合する(ステップ217)。この場合、照合一致するデータ「Bonjour」が存在するので、「Bonjour」に対応しているフランス語への切替え処理(ステップ219)を行う。すなわち、電子辞書装置は、ユーザによって予め決められた言葉の音声に基づいて、音声の言語の切り替えを行っている。

したがって、上記刊行物7には、以下の発明(以下、「技術事項6」という。)が記載されているものと認められる。

「ユーザによって予め決められた言葉の音声に基づいて、音声の言語の切り替えを行う電子辞書装置。」

H 前置報告書において新たに引用された特開2009-282788号公報(以下、「刊行物8」という。)には、図面とともに以下の事項が記載されている。

タ.「【技術分野】
【0001】
本発明は、音声認識装置および音声認識システムに関する。より詳しく述べると、多言語対応の音声認識装置および音声認識装置に関する。
本発明は、さらに多言語対応の音声認識システムにおける言語の切り替え方法および言語切り替えプログラムに関する。」(4頁)

レ.「【0033】
このような本実施態様の音声認識装置において、現在音声認識が実行されている対応する言語の識別用モデル部3に基づいて音声認識が実行されるが、本願発明は、入力された音声における言語が「今何語であるか」を把握し、入力された音声における言語が変化した場合、その変化に応じて対応する言語に切り替える点に特徴がある。そのため、本実施形態の音声認識装置は、単語認識部4により言語の変化を常にモニタしている。
【0034】
すなわち、単語認識部4は、音声入力分析部1からの音声信号に基づいて、入力された言語を所定の単語データに基づいて把握している。より具体的には、単語認識部4は、図2に示す通り、単語認識エンジン4Aと、認識単語定義辞書4Bと言語判別辞書4Cとから主として構成されており、現在用いられている言語から異なる言語への変更を絶えずモニタしている。
【0035】
より詳細には、以下の処理を行う。以下、本発明における単語認識処理の一例を図3に基づいて(適宜図1および図2を参照して)説明する。
単語認識部4は、図2に示す通り、単語認識エンジン4Aと、認識単語定義辞書4Bと言語判別辞書4Cとから主として構成されている。発声された音声は、先の音声認識部2への入力とともに、単語認識部4にも入力される(図1参照)。
【0036】
入力音声は、単語認識用音声認識エンジン4Aに入力される。音声が入力されると、単語認識用音声認識エンジン4Aは、音声分析と、探索過程を実行し、認識結果(認識単語)を出力する。
【0037】
単語認識部4では、単語認識用音声認識エンジン4Aが、音声分析部1により出力された音声入力を認識単語定義辞書4Bで照合し、該当する単語がある場合は、言語判別辞書4Cで言語調査を行い、入力音声の言語を決定し、認識言語信号を音声認識部2へ出力する。
【0038】
認識単語定義辞書4Bは、一つの言語(英語)の音響モデルをベースにして、一つの言語の単語およびその他の認識対象言語の単語を、ベースとした言語(英語)の表記方法で表記する。
【0039】
具体的には、言語を判定する為に、認識単語定義辞書4Bに定義する単語を一つの言語表記(アルファベット表記)で表記する。 この例で認識単語定義辞書4Bに定義する英語以外の言語の単語は、英語における似た音素を持つアルファベット表記の文字で定義する。
【0040】
単語認識用音声認識エンジン4Aは、この認識単語定義辞書4Bを用いて、入力音声の単語に最もよく合致する音響モデルの列を、言語モデルの拘束下で探し出し、最も入力音声に近いと推定される単語を判定することができる。
【0041】
認識対象とする単語数は、このシステムの用途に応じて、任意に決めることができ、それぞれの単語を予め認識単語定義辞書4Bに登録しておく。
【0042】
言語判別辞書は、単語と言語とを対応付けて定義する。単語を検索し、該当する単語が見つかれば、言語判別辞書4Cには、その単語に対応づけられた言語が定義、記述されているので、一つの単語に関する言語判別辞書を参照するだけで、その単語の言語が容易に判定できる。
【0043】
このように、単語認識エンジン4Aと、認識単語定義辞書4Bと言語判別辞書4Cとから主として構成された単語認識部4は、図3に示すフローチャートに従って入力された音声の言語が変化したか否かをモニタし、入力された言語が変化した場合には、言語識別信号を後段のモデル切り替え部5に送信する。モデル切り替え部5は、単語認識部4からの言語識別信号の変化に応じて識別用モデル部3にモデル切り替え信号を送信する。このようにして、モデル切り替え信号を受信すると識別用モデル部3は対応する言語の識別用モデル部に切り替える。」(9?10頁)

上記刊行物8の記載及び図面並びにこの分野における技術常識を考慮すると、上記レ.の【0033】における「本願発明は、入力された音声における言語が「今何語であるか」を把握し、入力された音声における言語が変化した場合、その変化に応じて対応する言語に切り替える点に特徴がある。」との記載、及び図1によれば、音声認識装置は、入力された音声における言語が「今何語であるか」を把握し、入力された音声における言語が変化した場合、その変化に応じて対応する言語に切り替えている。すなわち、音声認識装置は、入力された音声に基づいて、音声の言語を切り替えている。

したがって、上記刊行物8には、以下の発明(以下、「技術事項7」という。)が記載されているものと認められる。

「入力された音声に基づいて、音声の言語を切り替える音声認識装置。」

(2)対比
補正発明と引用発明とを対比する。
a.引用発明の「MCCU(Multimedia Conference Control Unit)(1140)」は、マルチメディア会議(Multimedia Conference )が、いわゆるビデオ会議といえ、多地点を繋いで制御するユニット(Control Unit)であるから、「ビデオ会議多地点制御ユニット」ということができる。
b.引用発明の「MCCU(Multimedia Conference Control Unit)(1140)を用いたエンドポイントに通訳(6)を介して翻訳する会議システム。」と、補正発明の「ビデオ会議多地点制御ユニットのためのリアルタイム音声翻訳機」とは、上記a.の対比を考慮すると、いずれも、「ビデオ会議多地点制御ユニットを用いた翻訳システム」という点で一致する。

したがって、補正発明と引用発明は、以下の点で一致ないし相違している。

(一致点)
「ビデオ会議多地点制御ユニットを用いた翻訳システム。」

(相違点1)
「翻訳システム」に関し、
補正発明は、ビデオ会議多地点制御ユニット「のためのリアルタイム音声翻訳機」であるのに対し、引用発明は、MCCU(Multimedia Conference Control Unit)(1140)「を用いたエンドポイントに通訳(6)を介して翻訳する会議システム」である点。

(相違点2)
上記相違点1の「リアルタイム音声翻訳機」に関し、
補正発明は、「複数の音声ストリームを調べて、翻訳のために、前記複数の音声ストリームのサブセットを選択する制御部」を備えるのに対し、引用発明は、その様な構成を備えない点。

(相違点3)
上記相違点1の「リアルタイム音声翻訳機」に関し、
補正発明は、「前記音声ストリームのサブセットに含まれる発話を翻訳する複数の翻訳機リソースであって、それぞれ、前記複数の音声ストリームの1又は複数の前記サブセットにおける発話を、1又は複数の言語のテキストに変換する複数の音声認識エンジンと、前記複数の音声認識エンジンに接続され、それぞれ、テキストを1又は複数の言語から1又は複数の別の言語に翻訳する複数の翻訳エンジンを備える前記複数の翻訳機リソース」を備えるのに対し、引用発明は、その様な構成を備えない点。

(相違点4)
上記相違点1の「リアルタイム音声翻訳機」に関し、
補正発明は、「前記制御部に接続され、該制御部によって選択された前記複数の音声ストリームの前記サブセットを、翻訳のために、前記複数の翻訳機リソースに渡す翻訳機リソースセレクタであって、会議出席者によって話された予め決められた言葉の音声に基づいて、前記複数の音声ストリーム中の或る音声ストリームの言語を選択する言語選択手段を備えた前記翻訳機リソースセレクタ」を備えるのに対し、引用発明は、その様な構成を備えない点。

(判断)
(1)請求項1について
まず、上記相違点1ないし3について検討する。
引用発明は、MCCU(Multimedia Conference Control Unit)(1140)「を用いたエンドポイントに通訳(6)を介して翻訳する会議システム」であり、そもそも、エンドポイントに人である通訳(6)を介して翻訳するものであって、ビデオ会議多地点制御ユニットに音声翻訳機能を組み込んだ翻訳機ではでない。
そうすると、引用発明に上記技術事項2である「音声翻訳装置(100)の生成部(140)において、音声を認識して文字列を出力する音声認識処理、認識した文字列などの認識結果を用いて翻訳の対象言語で翻訳する機械翻訳処理、翻訳結果である対象言語の文字列を合成した音声を生成する音声合成処理を行う会議システム。」及び上記技術事項3である「音声認識モジュール(220)と、翻訳モジュール(230)とを備える音声翻訳システム。」のいずれかを組み合わせても、引用発明のエンドポイントに音声翻訳装置(システム)を組み込む構成にしかなりえず、これに加えて、さらに、上記技術事項4である「音声/文字変換部(9)と、文章変換部(10)とを備えるテレビ会議システム。」を採用することに困難性があることは明らかであるから、上記相違点1ないし3における補正発明の発明特定事項を、引用発明から導き出すことはできない。
また、上記技術事項1もビデオ会議多地点制御ユニットに音声翻訳機能を組み込んだ翻訳機ではでないから、前述と同様の理由により、上記相違点1ないし3における補正発明の発明特定事項を、上記技術事項1から導き出すことはできない。

また、仮に、上記技術事項2を主引用発明として、上記技術事項2に上記技術事項4である「音声/文字変換部(9)と、文章変換部(10)とを備えるテレビ会議システム。」を採用するとしても、上記技術事項2が開示された上記刊行物3には、上記ト.の【0024】における「参加者が3人であり、そのうち1人だけが異なる言語を母語とする場合を想定する。同じ言語を話す参加者をA1とA2とし、異なる言語を話す参加者をB1とする。A1が端末装置200aを使用して話すと、音声がネットワーク300を通じて音声翻訳装置100に送信される。」との記載、同ト.の【0025】における「音声翻訳の必要のないA2に対しては、すぐに音声を伝送せずに記憶しておく。B1へ伝送する音声は音声翻訳を実行し音声に変換する。この変換が完了した後、A2に対して記憶していた元の音声を伝送し、B1には音声翻訳後の音声を伝送する。」との記載がある。そして、これらの記載は、参加者(A1)の音声が選択されて音声翻訳装置(100)に送信され音声翻訳後に参加者(B1)伝送されることを示しているが、複数の音声(ストリーム)を調べて、音声(ストリームのサブセット)を選択するとはいえないものである。
そうすると、上記技術事項2及び上記刊行物3の記載から、補正発明の上記相違点2である「複数の音声ストリームを調べて、翻訳のために、前記複数の音声ストリームのサブセットを選択する制御部」を導き出すことはできず、補正発明に至ることはない。

また、上記技術事項6である「ユーザによって予め決められた言葉の音声に基づいて、音声の言語の切り替えを行う電子辞書装置。」、及び上記技術事項7である「入力された音声に基づいて、音声の言語を切り替える音声認識装置。」は、上記相違点4について進歩性を否定する根拠として引用されたものである。しかしながら、前述のとおり補正発明の前提において進歩性を否定できないから、上記相違点4についての検討をするまでもなく、補正発明は、引用発明及び技術事項1ないし4、6及び7から、進歩性を否定することはできない。

なお、上記技術事項5は、補正発明の従属項に対して進歩性を否定する根拠として引用されたものである。

そして、補正発明は、上記発明特定事項を備えることによって、人的通訳を用意し及び人的通訳用のエンドポイント装置を余分に設ける構成に比べて、構成を縮減し且つコストを削減でき、且つ、長期にわたるビデオ会議であっても人的通訳の疲労及び入れ替え等の問題が起こらず、また、多地点制御ユニットの側において音声翻訳処理をまとめて行うことができるので、音声翻訳処理のために通信ネットワークを混雑させることがない、更に、字幕への対応を容易に行うことができ、更に、音声ストリームの言語選択を自動的に行うことができ、会議の翻訳を効率的に行うことができるという作用効果を奏するものである。

したがって、補正発明は、引用発明及び技術事項1ないし7に基いて、当業者が容易に発明をすることができたとはいえない。

(2)請求項2ないし請求項9について
請求項2ないし9は、請求項1を直接又は間接的に引用する請求項であり、補正発明の発明特定事項をすべて含みさらに発明特定事項を追加して限定したものであるから、上記(1)と同じ理由により、引用発明及び技術事項1ないし7に基づいて当業者が容易に発明をすることができたとはいえない。

(3)請求項10について
請求項10は、補正発明である「リアルタイム音声翻訳機」を、「多地点制御ユニット」としたものであり、補正発明の発明特定事項をすべて含むものであるから、上記(1)と同じ理由により、引用発明及び技術事項1ないし7に基づいて当業者が容易に発明をすることができたとはいえない。

(4)請求項11ないし18について
請求項11ないし18は、請求項10を直接又は間接的に引用する請求項であり、請求項10の発明特定事項をすべて含みさらに発明特定事項を追加して限定したものであるから、上記(1)と同じ理由により、引用発明及び技術事項1ないし7に基づいて当業者が容易に発明をすることができたとはいえない。

(5)請求項19について
請求項19は、補正発明である「リアルタイム音声翻訳機」のカテゴリーを方法とし、「リアルタイム音声翻訳方法」としたものであから、上記(1)と同じ理由により、引用発明及び技術事項1ないし7に基づいて当業者が容易に発明をすることができたとはいえない。

(6)請求項20ないし25について
請求項20ないし25は、請求項19を直接又は間接的に引用する請求項であり、請求項19の発明特定事項をすべて含みさらに発明特定事項を追加して限定したものであるから、上記(1)と同じ理由により、引用発明及び技術事項1ないし7に基づいて当業者が容易に発明をすることができたとはいえない。

よって、本件補正は、特許法第17条の2第6項において準用する同法第126条第7項の規定に適合する。

3.むすび
本件補正は、特許法第17条の2第3項ないし第6項の規定に適合する。

第3 本願発明
本件補正は上記のとおり、特許法17条の2第3項ないし第6項の規定に適合するから、本願の請求項1ないし25に係る発明は、本件補正により補正された特許請求の範囲の請求項1ないし25に記載された事項により特定されるとおりのものである。
そして、本願については、原査定の拒絶理由を検討してもその理由によって拒絶すべきものとすることはできない。
また、他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2014-04-21 
出願番号 特願2011-76604(P2011-76604)
審決分類 P 1 8・ 575- WY (G10L)
P 1 8・ 121- WY (G10L)
最終処分 成立  
前審関与審査官 菊地 陽一千本 潤介  
特許庁審判長 石井 研一
特許庁審判官 井上 信一
萩原 義則
発明の名称 ビデオ会議に翻訳を追加するための方法及びシステム  
代理人 飯塚 義仁  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ