• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06F
審判 査定不服 特36条6項1、2号及び3号 請求の範囲の記載不備 取り消して特許、登録 G06F
管理番号 1378693
審判番号 不服2020-1925  
総通号数 263 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2021-11-26 
種別 拒絶査定不服の審決 
審判請求日 2020-02-12 
確定日 2021-10-26 
事件の表示 特願2017-220005「電子機器の通訳機能提供方法」拒絶査定不服審判事件〔平成31年 1月24日出願公開、特開2019- 12507、請求項の数(15)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、2017年(平成29年)11月15日(パリ条約に基づく優先権主張:2017年6月29日、大韓民国)の出願であって、その手続の経緯は以下のとおりである。
平成31年 1月28日付け:拒絶理由通知書
令和 元年 5月 7日 :意見書、手続補正書の提出
令和 元年10月 7日付け:拒絶査定
令和 2年 2月12日 :審判請求書、手続補正書の提出
令和 3年 4月22日付け:拒絶理由通知書
令和 3年 7月26日 :意見書、手続補正書の提出

第2 当審で通知した令和3年4月22日付け拒絶理由(以下、「当審拒絶理由」という。)の概要
理由1(明確性)請求項14、15が引用する請求項10?13は、「第1イヤセット機器の通訳機能提供方法」であって、第1イヤセット機器には、入力された音声の送信機能、音声の受信機能、音声の出力機能しかなく、コンピュータプログラムであるアプリケーションは、電子機器が有するものであるから、請求項10?請求項13のいずれか一項に記載の方法を引用するコンピュータプログラムとはどのようなものなのか、明確でなく、この出願は、特許請求の範囲の記載が、特許法第36条第6項第2号に規定する要件を満たしていない。
理由2(進歩性)この出願の下記の請求項に係る発明は、その出願前に日本国内又は外国において、頒布された引用文献1?5に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基づいて、その出願前にその発明の属する技術の分野における通常の知識を有する者(以下、「当業者」という。)が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

請求項1、2、4、7、9、12、18について、引用文献1、2
請求項3について、引用文献1?3
請求項5、6について、引用文献1、2、4
請求項8について、引用文献1、2、5
請求項10について、引用文献1
請求項11、17について、引用文献1、3
請求項13、19について、引用文献1、5
請求項14、15について、引用文献1?5
請求項16について、引用文献1
引用文献1:世界の言葉の壁を取り払う、同時通訳イヤホンPilotが商品化!,株式会社ユーディーアール ワールドビジネスブログ,株式会社ユーディーアール,2016年6月30日,URL=https://www.udr-inc.com/2016/06/30/%E4%B8%96%E7%95%8C%E3%81%AE%E8%A8%80%E8%AA%9E%E3%81%AE%E5%A3%81%E3%82%92%E5%8F%96%E3%82%8A%E6%89%95%E3%81%86-%E5%90%8C%E6%99%82%E9%80%9A%E8%A8%B3%E3%82%A4%E3%83%A4%E3%83%9B%E3%83%B3pilot%E3%81%8C%E5%95%86%E7%94%A8%E5%8C%96/
引用文献2:特表2016-509379号公報
(パテントファミリー
国際公開第2014/169609号
欧州特許出願公開第2990943号明細書
韓国公開特許第10-2015-0079826号公報)
引用文献3:米国特許出願公開第2014/0177885号明細書
引用文献4:特開2016-91350号公報
引用文献5:米国特許出願公開第2017/0060850号明細書

第3 原査定の拒絶の理由の概要
(進歩性)この出願の下記の請求項に係る発明は、その出願前に日本国内又は外国において、頒布された引用文献A、Bに記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

請求項1?8、11?13、15?19について、引用文献A
請求項9、10、14、20について、引用文献A、引用文献B
引用文献A:特表2015-521404号公報
引用文献B:特開2006-146732号公報

第4 本願発明
本願の請求項1?15に係る発明(以下、それぞれ「本願発明1」?「本願発明15」という。)は、令和3年7月26日の手続補正で補正された特許請求の範囲の請求項1?15に記載された事項により特定される以下のとおりのものである。
「【請求項1】
電子機器が実行する通訳機能提供方法であって、
第1イヤセット機器または前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器で発生するアプリケーション実行信号を受信する段階、
前記受信したアプリケーション実行信号に対応するアプリケーションを実行する段階、
前記実行するアプリケーションの制御にしたがい、前記第1イヤセット機器および前記第2イヤセット機器のうちの一方を通じて受信した音声に対する他の言語への通訳機能を提供する段階、および
前記他の言語へ通訳された結果を、前記第1イヤセット機器および前記第2イヤセット機器のうちの他方へ送信する段階
を含み、前記第1イヤセット機器および前記第2イヤセット機器は左右の耳に着用されるイヤセットペアを構成し、
前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した第1言語の音声を第2言語のテキストに変換して前記電子機器のディスプレイで表示し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した第2言語の音声を第1言語のテキストに変換して前記電子機器のディスプレイで表示することを含む、通訳機能提供方法。
【請求項2】
前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した第1言語の音声を第2言語の音声に変換して前記第2イヤセット機器に提供し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した第2言語の音声を第1言語の音声に変換して前記第1イヤセット機器に提供する、請求項1に記載の通訳機能提供方法。
【請求項3】
前記電子機器は、前記第1イヤセット機器および前記第2イヤセット機器のうちのいずれか1つのイヤセット機器と直接通信し、前記直接通信するイヤセット機器と残り1つのイヤセット機器間の無線通信によって前記残り1つのイヤセット機器と間接通信する、請求項1に記載の通訳機能提供方法。
【請求項4】
前記電子機器は、前記第1イヤセット機器および前記第2イヤセット機器の両方と同時に直接通信する、請求項1に記載の通訳機能提供方法。
【請求項5】
前記受信したアプリケーション実行信号または前記実行するアプリケーションで入力される通訳モード開始信号に基づいて、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを利用した音楽鑑賞モードまたは電話通話モードを通訳モードに切り替える段階、および
前記第1イヤセット機器と第2イヤセット機器を含むイヤセットペアのうちいずれか1つのイヤセット機器で発生するアプリケーション終了信号または前記アプリケーションで入力される通訳モード終了信号に基づいて、前記通訳モードを前記音楽鑑賞モードまたは電話通話モードに切り替える段階
をさらに含む、請求項1に記載の通訳機能提供方法。
【請求項6】
前記受信したアプリケーション実行信号または前記実行するアプリケーションで入力される通訳モード開始信号に基づいて、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを利用して実行中の電話通話モードを通訳モードに切り替える段階、
前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを通じて入力され前記電子機器が受信した第1言語の音声を、前記通訳機能を利用して第2言語の音声に変換する段階、
前記第1イヤセット機器または第2イヤセット機器で発生するアプリケーション終了信号または前記アプリケーションで入力された通訳モード終了信号に基づいて、前記通訳モードを前記電話通話モードに切り替える段階、および
前記変換された第2言語の音声を、前記電話通話モードを通じて電話通話の相手に提供する段階
をさらに含む、請求項1に記載の通訳機能提供方法。
【請求項7】
前記アプリケーション実行信号は、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含む物理的なボタンによる入力、または前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含むセンサの出力値によって発生する、請求項1に記載の通訳機能提供方法。
【請求項8】
前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した音声の第1言語と前記第2イヤセット機器を通じて入力され前記電子機器が受信した音声の第2言語を感知する段階、
感知された第1言語の音声を感知された第2言語の音声に変換し、感知された第2言語の音声を感知された第1言語の音声に変換する段階、および
前記変換された第2言語の音声を前記第2イヤセット機器に提供し、前記変換された第1言語の音声を前記第1イヤセット機器に提供する段階
を含む、請求項1に記載の通訳機能提供方法。
【請求項9】
前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した音声を、前記アプリケーションで前記第2イヤセット機器に対して設定された第2言語に変換し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した音声を、前記アプリケーションで前記第1イヤセット機器に対して設定された第1言語に変換する段階、および
前記変換された第2言語の音声を前記第2イヤセット機器に提供し、変換された第1言語の音声を前記第1イヤセット機器に提供する段階
を含む、請求項1に記載の通訳機能提供方法。
【請求項10】
通訳機能提供方法であって、
第1イヤセット機器に入力された第1言語の音声が電子機器で実行されるアプリケーションの通訳機能によって第2言語の音声に変換され、前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器に提供されるように、前記第1言語の音声を前記電子機器に送信する段階、
前記第2イヤセット機器に入力されて前記電子機器で受信された第2言語の音声を、前記電子機器が前記実行されるアプリケーションの通訳機能によって第1言語の音声に変換することに応答し、前記電子機器から前記変換された第1言語の音声を前記第1イヤセット機器が受信する段階、および
前記第1イヤセット機器が前記受信した第1言語の音声を出力する段階
を含み、前記第1イヤセット機器および前記第2イヤセット機器は左右の耳に着用されるイヤセットペアを構成し、
前記電子機器は、前記アプリケーションの通訳機能を実行する場合に、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した第1言語の音声を第2言語のテキストに変換して前記電子機器のディスプレイで表示し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した第2言語の音声を第1言語のテキストに変換して前記電子機器のディスプレイで表示する、通訳機能提供方法。
【請求項11】
前記第2イヤセット機器と前記電子機器間の通信を中継するか、または前記第2イヤセット機器の中継によって前記電子機器と通信する、請求項10に記載の通訳機能提供方法。
【請求項12】
前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含む物理的なボタンによる入力、または前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含むセンサの出力値によって発生し、前記電子機器に送信されるアプリケーション実行信号によって前記電子機器で前記アプリケーションが実行される、請求項10に記載の通訳機能提供方法。
【請求項13】
前記第1言語は、前記第1イヤセット機器に入力される音声の言語を前記実行されたアプリケーションを利用して感知した言語を含むか、または前記実行されたアプリケーションで前記第1イヤセット機器に対応して予め設定された言語を含み、
前記第2言語は、前記第2イヤセット機器に入力される音声の言語を前記実行されたアプリケーションを利用して感知した言語を含むか、または前記実行されたアプリケーションで前記第2イヤセット機器に対応して予め設定された言語を含む、請求項10に記載の通訳機能提供方法。
【請求項14】
コンピュータと結合して請求項1?13のうちのいずれか一項に記載の方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納された、コンピュータプログラム。
【請求項15】
請求項1?13のうちのいずれか一項に記載の方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータで読み取り可能な記録媒体。」

第5 引用文献、引用発明
(1)引用文献1、引用発明
ア 当審拒絶理由に引用した引用文献1には次のとおりの記載がある。
「米国のWaverly Labsが開発したイヤホン型の自動翻訳機”Pilot”はスタートレックに出てきた夢のウェアラブル型翻訳機(ユニバーサル・トランスレーター)のようだ。
このイヤホン型翻訳機は二人の話者間で使用するツールで、音声認識、機械翻訳、音声合成及びウェアラブルという最先端技術を使ってユーザーの言語を即時翻訳する。
Pilotのイヤホン内部にはブルートゥース搭載のマイクが内蔵されており、音声をキャッチしてスマートフォンに転送する。スマートフォン内のアプリは音声認識を使用して音声をテキスト化。これを機械翻訳であらかじめ設定された言語へと翻訳するという仕組みになっている。翻訳されたテキストは、テキスト読み上げ機能で音声変換され、イヤーピースから音声として流れる。
例えば、英語を話すユーザーが英語で話すとWaverly Labsのスマホアプリがフランス語に同時通訳し、会話相手のフランス語話者のイヤホンに送信する。また同様にフランス語を英語に通訳する。
現在Pilotはラテン語起源とするフランス語、スペイン語、イタリア語と英語間で通訳できる。今後はスラブ言語や東南アジアの言語など、他言語も通訳できるようになるだろう。」
イ 引用発明
上記アによると、引用文献1には、
「イヤホン内部にブルートゥース搭載のマイクが搭載された、2人の話者間で使用するイヤホン型翻訳機と、スマートフォン内のアプリとからなる自動翻訳方法であって、
イヤホン内部のマイクで音声をキャッチしてスマートフォンに転送し、
スマートフォン内のアプリは、音声認識を使用して音声をテキスト化し、これを機械翻訳であらかじめ設定された言語へと翻訳し、翻訳されたテキストを、テキスト読み上げ機能で音声変換し、会話相手のイヤホンに送信し、
イヤホンから音声として流す、
自動翻訳方法。」の発明(以下、「引用発明1」という。)が記載されている。

(2) 引用文献2
ア 当審拒絶理由に引用した引用文献2には、次のとおりの記載がある。下線は、当審が付した。
「【技術分野】
【0001】
本発明は、スマート端末技術分野に関し、特に、スマート端末デバイスの制御方法及びシステムに関する。
【背景技術】
【0002】
スマート端末デバイスとは、マルチメディア機能を有するスマートデバイスを意味する。これらデバイスは、オーディオ、ビデオ、データ、等に関する機能を提供する。例えば、テレビ電話、会議端末、マルチメディア機能が内蔵されたパーソナルコンピュータ(personal computer PC)、パーソナルデジタルアシスタント(Personal Digital Assistant PDA)等は、すべて、スマート端末デバイスに属する。
【0003】
スマート端末デバイスの高速の普遍化に伴い、これらデバイスのオーディオビジュアルのエクスペリエンスもますます完璧になっている。これらは、もう、人々の外出する過程中の重要なエンターテイメント用デバイスになった。
【0004】
一方、移動アプリケーションの場合、ユーザは、ほとんど、イヤホンを着用してマルチメディア・コンテンツを聴く。例えば、オーディオやビデオを再生させる時、或は、ゲームを運行させる際に、イヤホンを使用して聴くことになる。もう一方、移動インターネットによるオーディオ通信及びビデオ通信の発展に伴い、人々は、オーディオ通信又はビデオ通信を行う時にも、イヤホンをよく使用する。
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、多数の緊急の場合に、ユーザは、よく、耳からイヤホンを取るために慌てた後に、マルチメディア・コンテンツの再生の中止を忘れるか、或は、それに間に合わなくなるため、再生させているオーディオ及びビデオ、或は、ゲームを逃すか、デバイスの電力の無駄を招いてしまう。もし、ユーザがマルチメディアの再生を中止しようとすると、スマート端末の操作インターフェースに戻って一時停止ボタンを押下しなければならない。例えば、有線イヤホンの場合は、再生制御機能を有する線制御ボタンである一時停止ボタンを押下するか、或いは、そのまま、デバイスからイヤホンプラグを抜き出すことで、再生を一時停止させる必要がある。無線イヤホンの場合は、イヤホン上のスイッチを押下するか、或いは、再生インターフェース上の一時停止ボタンを押下することで、再生を一時停止させる必要がある。」
「【0008】
本発明に係る実施例は、イヤホンの着脱状態が変更された時に行うべき操作を簡素化でき、イヤホンの機械的の部分の使用寿命を改善でき、スマート端末デバイスの電力を節約できる、スマート端末デバイスの制御方法及びシステムを提供する。
【0009】
上記の問題を解決するために、本発明に係る実施例の第1の態様によると、スマート端末デバイスの制御方法を提供する。前記方法は、スマート端末デバイスに接続されたイヤホンのイヤーピースの、着用及び脱着を含む着脱状態をモニタリングするステップと、前記イヤーピースの着脱状態に基づいて、前記スマート端末デバイス中のアプリケーションの運行状態を制御するか、及び/或いは、前記スマート端末デバイスの動作モードを制御するステップとを含む。
【0010】
オプションとして、前記イヤーピースの着脱状態に基づいて、前記スマート端末デバイス中のアプリケーションの運行状態を制御するか、及び/或いは、前記スマート端末デバイスの動作モードを制御するステップは、前記スマート端末デバイス中に運行中のアプリケーションが存在するか否かを検出するステップと、前記スマート端末デバイス中に運行中のアプリケーションが存在しない場合、前記イヤーピースの着脱状態に基づいて、予め設定した対策に従って、前記スマート端末デバイス中のアプリケーションを起動して運行させるステップと、前記スマート端末デバイス中に運行中のアプリケーションが存在する場合、前記運行中のアプリケーションの種類を特定して、特定された種類及び前記イヤーピースの着脱状態に基づいて、前記運行中のアプリケーションの運行状態を制御するか、及び/或いは、前記スマート端末デバイスの動作モードを制御するステップとを含む。
【0011】
オプションとして、イヤーピースの着脱状態に基づいて、予め設定した対策に従って、前記スマート端末デバイス中のアプリケーションを起動して運行させるステップは、前記イヤーピースの着脱状態が着用である場合、前記スマート端末デバイスのデスクトップアプリケーションを起動して運行及び表示させるように制御するステップ、或いは、前記イヤーピースの着脱状態が着用である場合、前記スマート端末デバイス中の予め設定したアプリケーションを起動して運行させるように制御するステップ、或いは、前記イヤーピースの着脱状態が着用である場合、表示インターフェースにアプリケーションのリストを表示させるように制御し、ユーザにより前記アプリケーションのリスト中から選択したアプリケーションを起動して運行させるステップを含む。」
「【0014】
オプションとして、スマート端末デバイスに接続されたイヤホンのイヤーピースの着脱状態をモニタリングするステップは、前記イヤホンのイヤーピースの表面或いは内部に設置されたセンサを用いて、前記スマート端末デバイスに接続されたイヤホンのイヤーピースの着脱状態をモニタリングするステップを含み、前記センサは、カメラセンサ、容量型静電気センサ、抵抗型圧力センサ、圧電センサ、光センサ、赤外線センサ及び距離センサの中の少なくとも一つを含む。」
「【0035】
本発明に係る実施例において、上記のスマート端末デバイスに接続されたイヤホンは、無線イヤホン(Bluetoothイヤホン等を含み)であってもよく、有線イヤホンであってもよいし、本発明に係る実施例はこれに対して限定しない。」
「【0037】
ここで、左側と右側との二つのイヤーピースを有するイヤホン(有線或いは無線)の場合、少なくとも一つのイヤーピースの着脱状態がモニタリングされると、当該イヤホンが着用状態にあると判断し、二つのイヤーピースがすべて脱着状態にあることがモニタリングされると、当該イヤホンが脱着状態にあると判断する。一つのイヤーピースを有するイヤホンの場合、当該イヤーピースの着用状態又は脱着状態が、当該イヤホンの状態を代表する。」
「【0049】
従来の技術においては、有線イヤホン或は無線イヤホンのマイクロスイッチは、マルチメディア・コンテンツの再生、ゲーム、通信等を制御するための周辺デバイスである。図3は、従来技術でのイヤホンの内部構成図である。
【0050】
図3中のマイクロスイッチは、マルチメディア・コンテンツの再生、ゲームの運行、通信の実施、等の操作を制御できる。端末デバイスにおいて、マルチメディア・コンテンツを再生させているか、一時停止させる過程において、マイクロスイッチをクリックすると、デバイスは、命令を受け取って再生を続けるか、或は、再生を一時停止させることになり、端末デバイスの通信過程において、マイクロスイッチをクリックすると、デバイスは、命令を受け取って電話を受けるか、或は、電話を切ることになる。
【0051】
しかし、上記の技術中の有線イヤホン、或は、無線イヤホンのマイクロスイッチの場合は、手動操作を通じてマルチメディアの再生、ゲーム、通信、等を制御するが、頻繁の機械的操作は、イヤホンのスイッチ、プラグ、及び、インターフェースの摩耗及び老化を招いてしまい、また、手動操作の過程が煩雑である。
【0052】
上記の問題を解決するために、本発明に係る実施例は、センサを用いて、イヤホンのイヤーピースの着脱状態をリアルタイムにモニタリングして、着脱状態によって、スマート端末デバイスが該当する操作を実行するように自動的に制御できる構成を提供する。
【0053】
図4は、本発明の実施例2に係るイヤホンの内部構成図である。図4から分かるように、本発明に係る実施例においては、イヤホン上に、イヤホンの着脱状態をリアルタイムに
モニタリングできるセンサを追加してもよい。
【0054】
このため、当該ステップ200は、以下のステップを含んでもよい。
【0055】
サブステップ2001において、イヤホンのイヤーピース表面、或いは、内部に設置されたセンサを用いて、スマート端末デバイスに接続されたイヤホンのイヤーピースの着脱状態をモニタリングする。
【0056】
本発明に係る実施例において、上記のセンサは、カメラセンサ、容量型静電気センサ、抵抗型圧力センサ、圧電センサ、光センサ、赤外線センサ及び距離センサの中の一つ、或いは、幾つかの組み合わせを含んでもよい。
【0057】
当然ながら、上記のセンサは、他の種類のセンサを含んでもよく、本発明に係る実施例はこれに対して限定しない。
【0058】
イヤホンのイヤーピース表面、或いは、内部のセンサを用いて、外部の信号を検出して、検出された信号に基づいて、スマート端末デバイス上のイヤホンのイヤーピースの着脱状態を判断してもよく、即ち、現在、イヤホンのイヤーピースが着用されているか、又は、脱着されているかを判断する。」
イ 引用文献2記載事項
上記アの記載によると、引用文献2には、
「スマート端末デバイスのイヤホンの着脱状態が変更された時に行うべき操作を簡素化でき、イヤホンの機械的の部分の使用寿命を改善するため(【0008】)、スマート端末デバイスに接続されたイヤホンのイヤーピースの、着用及び脱着を含む着脱状態をモニタリングし、前記イヤーピースの着脱状態に基づいて、前記スマート端末デバイス中のアプリケーションの運行状態を制御し(【0009】)、前記イヤーピースの着脱状態が着用である場合、前記スマート端末デバイス中の予め設定したアプリケーションを起動して運行させるように制御する」(【0011】)こと(以下、「引用文献2記載事項」という。)が記載されている。

(3)引用文献3
ア 当審拒絶理由に引用した引用文献3には、次のとおりの記載がある。訳文中の下線は、当審が付した。
「[0014] FIG. 1 shows one system 100 using wireless devices in a direct communication mode with a remote source 102 according to one embodiment of the present subject matter. Remote source 102 transmits signals 105 to the first hearing communication device 104 including first audio information. Remote source 102 also transmits signals 109 to the second hearing communication device 108 including second audio information. In this embodiment, the first hearing communication device 104 does not have a wireless connection to the second hearing communication device 108 for transmitting stereo information from the first hearing communication device 104 to the second hearing communication device 108. Thus, the first audio information is wirelessly received by the first hearing communication device 104 and played to a first ear of the wearer and the second audio information is wirelessly received by the second hearing communication device 108 and played to the second ear of the wearer.
[0015] The system in various embodiments can also support eavesdropping modes. For example, as shown in FIG. 2, in system 200 remote source 202 is in communications with first hearing communication device 204 via signals 205. Second hearing communication device 208 can “listen in” on communications from remote source 202 using a mode that is different than the mode used by the first hearing communication device 204. For instance, it is possible that second hearing communication device 208 receives signals 210, but does not control, for example, handshaking with remote source 202 to the same extent as first communication device 204. Other eavesdropping modes can be employed without departing from the scope of the present subject matter.
[0016] FIG. 3 depicts one embodiment where a relaying mode is employed to communicate wirelessly between the first hearing communication device 304 and the second hearing communication device 308. In this embodiment, first and second audio information is sent over signal 305 to the first hearing communication device 304. The second audio information is then relayed to the second hearing communication device 308 via relay signal 311. Such relay may be performed using different frequencies, different communication modes and with different data rates, for different implementations if desired. In one embodiment, the first hearing communication device 304 may demodulate and decode stereo information and encode and relay the channel bound for the instrument on or in the other ear. In various embodiments, the communications can be made using similar transmissions to the primary transmission. In various embodiments, the communications can be maded using a different method than that of the primary transmission. In various embodiments, the signals 305 and 311 are unidirectional. In various embodiments, the signals 305 and 311 are bidirectional. In various embodiments, the signals 305 and 311 are programmably combinations of unidirectional and/or bidirectional. Thus, the system 300 is highly programmable to adapt to a number of communication requirements and applications. In one embodiment, relay signal 311 is a substantially magnetically coupled or near field communication link. In one embodiment, a telecoil is employed to receive the relay signal 311. In one embodiment, a magnetic sensor is used to receive the relay signal 311. In one embodiment, relay signal 311 is a radio frequency or far field communication link. Other communication links, such as infrared and ultrasonic may be employed in various applications.」

(当審訳:
[0014]図1は、本主題の一実施形態によるリモートソース102との直接通信モードでワイヤレスデバイスを使用する1つのシステム100を示す。リモートソース102は、第1のオーディオ情報を含む信号105を第1の聴覚通信装置104に送信する。また、リモートソース102は、第2オーディオ情報を含む信号109を第2聴覚通信装置108に送信する。本実施形態では、第1の聴覚通信装置104は、第1の聴覚通信装置104から第2の聴覚通信装置108にステレオ情報を送信するための、第2の聴覚通信装置108との無線接続を有していない。したがって、第1音声情報は、第1聴覚通信装置104によって無線で受信され、装着者の第1の耳に再生され、第2音声情報は、第2聴覚通信装置108によって無線で受信され、装着者の第2の耳に再生される。
[0015]様々な実施形態におけるシステムは、傍受モードもサポートすることができる。例えば、図2に示すように、システム200において、リモートソース202は、信号205を介して第1の聴覚通信装置204と通信している。第2の聴覚通信装置208は、第1の聴覚通信装置204が使用するモードとは異なるモードを使用して、リモートソース202からの通信を「傍受」することができる。例えば、第2の聴覚通信装置208は、信号210を受信するが、第1の通信装置204と同じ程度に、例えば遠隔ソース202とのハンドシェイクを制御しないことが可能である。本主題の範囲から逸脱することなく、他の傍受モードを採用することができる。
[0016]図3は、第1の聴覚通信装置304と第2の聴覚通信装置308との間で無線通信するために中継モードが採用される一実施形態を示している。本実施形態では、第1および第2の音声情報が信号305を介して第1の聴覚通信装置304に送信される。そして、第2の音声情報は、中継信号311を介して第2の聴覚通信装置308に中継される。このような中継は、所望であれば、異なる実装のために、異なる周波数、異なる通信モード、および異なるデータレートを用いて行うことができる。一実施形態では、第1の聴覚通信装置304は、ステレオ情報を復調および復号し、他方の耳にあるまたは他方の耳の中にある器具に結合されたチャネルを符号化して中継してもよい。様々な実施形態において、通信は、第1の送信と同様の送信を用いて行うことができる。様々な実施形態において、通信は、一次送信の方法とは異なる方法を用いて行われ得る。様々な実施形態において、信号305および311は、単方向である。様々な実施形態において、信号305および311は、双方向である。様々な実施形態では、信号305および311は、一方向性および/または双方向性のプログラム可能な組み合わせである。このように、システム300は、多数の通信要件およびアプリケーションに適応するために高度にプログラム可能である。一実施形態では、中継信号311は、実質的に磁気的に結合された近距離通信リンクである。一実施形態では、中継信号311を受信するためにコイルが採用される。一実施形態では、リレー信号311を受信するために、磁気センサが採用される。一実施形態では、中継信号311は、無線または遠距離通信リンクである。赤外線や超音波などの他の通信リンクは、様々なアプリケーションで採用されてもよい。)
イ 引用文献3記載事項
上記アの記載によると、引用文献3には、
「第1の聴覚通信装置304と第2の聴覚通信装置308との間で無線通信するために中継モードが採用された場合、第1および第2の音声情報が信号305を介して第1の聴覚通信装置304に送信され、第2の音声情報は、中継信号311を介して第2の聴覚通信装置308に中継されること」(以下、「引用文献3記載事項」という。)が記載されている。

(4)引用文献4
ア 当審拒絶理由に周知技術を示す文献として引用した引用文献4には、次のとおりの記載がある。下線は、当審が付した。
「【背景技術】
【0002】
現在、スマートフォンなどの情報処理装置が急速に普及してきている。このような情報処理装置の普及に伴って、情報処理装置の表示画面上に表示される情報も、パーソナルコンピュータの表示画面上に表示される情報と比較して遜色ない情報量及び表現力となってきている。
【0003】
情報処理装置に表示される情報については、例えば、表示優先度に応じて表示される順序が使い分けられる場合がある。
【0004】
例えば、あるアプリケーションが起動され当該アプリケーションに関する情報が画面上に表示されている場合において、電話の着信があると、電話アプリケーションが起動され、着信があったことを示す情報が表示されるようになっている。この場合、あるアプリケーションよりも電話アプリケーションの方が、表示される優先度が高いことを示している。
【0005】
また、例えば、通話中にあるエラーが発生すると、情報処理装置の画面上にはエラーメッセージが表示されるようになっている。
【0006】
従って、このような情報処理装置においては、通常のアプリケーションよりも電話アプリケーションの方が表示優先度は高く、電話アプリケーションよりもエラーに関するアプリケーションの方が表示優先度は高くなっている。
【0007】
表示優先度に応じて表示される情報の順序が使い分けられることで、例えば、そのようなことが行われない場合と比較して、ユーザへの情報通知をより早く行わせることが可能となり、緊急度の高い情報をユーザへ素早く通知することが可能となる。」
「【0062】
<1.1 全体動作例を示すシーケンス例>
図4に示すように、情報処理装置100は、追加サービスアプリケーションプログラム114をダウンロードする(S10)。ダウンロードした追加サービスアプリケーションプログラム114は、例えば、RAM130又はメモリ140に記憶される。
【0063】
次に、アプリケーション制御部115は、先行アプリケーションプログラム113を起動させる(S11)。例えば、以下のような処理が行われる。すなわち、表示部170において先行アプリケーション113の実行を指示するユーザ操作を検知したり、無線部160において着信に関する制御信号の受信を検知すると、その旨がアプリケーション制御部115へ通知される。そして、アプリケーション制御部115は、先行アプリケーションプログラム113をROM120から読み出して、当該プログラム113の実行を開始する。
【0064】
次に、先行アプリケーション113は、当該アプリケーションに関する情報を表示部170に表示させる(S14)。例えば、先行アプリケーション113では、当該アプリケーションプログラムが実行されることで、先行アプリケーションに関する情報を生成して、表示部170へ出力することで、当該情報を表示部170において表示させることができる。
【0065】
次に、アプリケーション制御部115は追加サービスアプリケーション114を起動させる(S15,S16)。例えば、以下のような処理が行われる。すなわち、表示部170ではユーザにより追加サービスアプリケーションの実行を指示する操作を検出するとその旨をアプリケーション制御部150へ通知する。アプリケーション制御部114は、当該通知を受け取ると、RAM130又はメモリ140から追加サービスアプリケーションプログラム114を読み出し、アプリケーションレイヤ111へ出力し、当該プログラム114の実行を指示する。これにより、追加サービスアプリケーション114が起動される。
【0066】
次に、追加サービスアプリケーション114は、優先表示設定をアプリケーション制御部115へ通知する(S17)。優先表示設定は、例えば、追加サービスアプリケーション114が起動されたことをアプリケーション制御部115へ通知することで、追加サービスアプリケーション114に関する情報を表示することを要求している。例えば、追加サービスアプリケーション114は、起動を開始すると優先表示設定を生成し、生成した当該設定をアプリケーション制御部115へ通知する。
【0067】
アプリケーション制御部115は、優先表示設定を受け取ると、優先表示アプリケーション起動通知を生成し、生成した当該通知を優先サービス起動エージェント116へ通知する(S18)。優先表示アプリケーション起動通知は、例えば、追加サービスアプリケーション114が起動されたことを優先サービス起動エージェント116へ知らせるための通知である。
【0068】
優先サービス起動エージェント116は、優先表示アプリケーション起動通知を受け取ると、優先サービス起動通知を先行アプリケーション113へ通知する(S19)。例えば、優先サービス起動エージェント116は、当該通知により、先行アプリケーション113が起動されたことを先行アプリケーション113へ通知している。
【0069】
先行アプリケーション113は、優先サービス起動通知を受け取ると、追加サービスアプリケーション114がサービス制御許容可能か否かを判別し、許容可能と判別した場合、表示優先度制御を行う(S20)。
【0070】
サービス制御許容可能か否かの判別は、例えば、以下のようにして行われる。すなわち、先行アプリケーション113は、優先サービス起動通知(S19)に含まれる認証情報に基づいて認証処理を行うことで、通信キャリアが許容するアプリケーションか否かを判別する。この場合、先行アプリケーション113は、認証情報を優先サービス起動通知(S19)から抽出する。先行アプリケーション113は、当該認証情報と、通信キャリアの許容するアプリケーションに対応する認証情報とを比較して、2つの認証情報が一致するか否かにより判別する。通信キャリアが許容するアプリケーションに対応する認証情報は、例えば、メモリ140に記憶されている。先行アプリケーション113は、本処理(S20)の際に、通信キャリアが許容するアプリケーションに対応する認証情報をメモリ140から適宜読み出して、抽出した認証情報と比較することで処理を行う。
【0071】
また、表示優先度制御は、例えば、以下のように行われる。すなわち、先行アプリケーション113は、追加サービスアプリケーション114がサービス制御許容可能と判別した場合、先行アプリケーション113の表示優先度を1表示レイヤ低下させることを決定する。先行アプリケーション113と追加サービスアプリケーション114とが同一の表示優先度の場合、先行アプリケーション113の表示優先度を1表示レイヤ低下させることで、追加サービスアプリケーション114の表示が可能となる。
【0072】
先行アプリケーション113は、表示優先度制御を行い、表示優先度低下設定をアプリケーション制御部115へ通知する(S21)。
【0073】
アプリケーション制御部115は、先行アプリケーション113から表示優先度低下設定を受け取ると、表示画面を切り替える(S22)。例えば、以下のような処理が行われる。すなわち、アプリケーション制御部115は、表示優先度低下設定に基づき、先行アプリケーション113の表示優先度を1表示レイヤ下げる。そして、アプリケーション制御部115は、表示優先度を1表示レイヤ下げたことで、アプリケーションレイヤ111から表示部170へ出力する情報に関して、先行アプリケーション113から追加サービスアプリケーション114へ切り替える。
【0074】
これにより、追加サービスアプリケーション114は、当該アプリケーション114に関する情報を表示部170に表示させることができる(S23)。
【0075】
その後、追加サービスアプリケーション114が終了する場合(S24)、追加サービスアプリケーションのアプリケーション終了をアプリケーション制御部115へ通知する(S25)。
【0076】
次に、アプリケーション制御部115は、追加サービスアプリケーション114のアプリケーション終了通知を優先サービス起動エージェント116へ通知する(S26)。
【0077】
優先サービス起動エージェント116は、アプリケーション終了通知を受け取ると、追加サービスアプリケーション114の優先サービス終了通知を先行アプリケーション113へ通知する(S27)。これにより、例えば、追加サービスアプリケーション114の終了が先行アプリケーション113へと通知される。
【0078】
先行アプリケーション113は、優先サービス終了通知を受け取ると、表示優先度制御を行う(S28)。例えば、先行アプリケーション113は、1表示レイヤ下げた自アプリケーションの表示優先度を1表示レイヤ上昇させることを決定する。
【0079】
次に、先行アプリケーション113は、表示優先度上昇設定をアプリケーション制御部115へ通知する(S29)。
【0080】
アプリケーション制御部115は、先行アプリケーション113の表示優先度を1表示レイヤ上昇させて、先行アプリケーション113の情報が表示させるよう表示部170に表示される表示画面を切り替える(S30)。例えば、アプリケーション制御部115は、表示優先度上昇設定に基づいて、先行アプリケーション113から表示部170へ、先行アプリケーション113において実行された情報などを出力する。これにより、先行アプリケーション113への画面の切り替えが行われる。
【0081】
表示画面の切り替えにより、先行アプリケーション113は、自アプリケーション113に関する情報を表示部170へ表示させることができる(S31)。」
イ 引用文献4記載事項
上記アの記載によると、引用文献4には、「スマートフォンなどの情報処理装置において、複数のアプリケーションを、アプリケーションの優先度に応じて表示を切り替えること」(以下、「引用文献4記載事項」という。)が記載されている。

(5)引用文献5
ア 当審拒絶理由に引用した引用文献5には、次のとおりの記載がある。訳文中の下線は、当審が付した。
「[0023]The personal translator implementations described herein are advantageous in that they provide a speech translation device that can be wearable and which provides for hands-free in-person language translation. The speech translation device is small, light and inexpensive because it pairs with a nearby computing device and hence performs minimal complex processing itself and therefore requires few complex and expensive components. As a result, it is easily transportable and in a wearable configuration can be worn for long periods of time without discomfort to a wearer. The speech translation device translates bilingually (e.g., English to/from Chinese) in in-person scenarios (e.g., in taxi cab, at a store counter, etc.) in real-time. A conversational translation allows for flowing conversations, rather than an utterance-at-a-time translation. In some implementations, the speech translation device is always on, and is activated by single touch and/or voice cue. The personal translator detects the language being spoken and automatically translates the received speech to the opposing language in the conversation. For example, when worn or used by an English speaker in France, it will translate any detected French to English and any detected English to French. This allows for bi- to multi-lingual scenarios between two or more participants. In some personal translator implementations the translations are displayed at the same time a transcript of the translated speech is output by a loudspeaker of the speech translation device. This implementation is particularly beneficial for allowing deaf or hearing impaired persons to participate in a conversation (either in the same language or in a bi-lingual conversation). In some implementations the loudspeaker has a resonant chamber which allows for increased volume of the translated speech with minimal energy consumption.」
(当審訳:
[0023]本明細書に記載されているパーソナル・トランスレーターの実施は、ウェアラブルにすることができ、ハンズフリーでの対人言語翻訳を可能にする音声翻訳装置を提供するという点で有利である。この音声翻訳装置は、近くにあるコンピューティングデバイスとペアになっているため、小型、軽量、安価であり、したがって、それ自体が最小限の複雑な処理を行うため、複雑で高価な部品はほとんど必要がない。そのため、持ち運びが容易で、ウェアラブルな構成であれば、装着者に違和感を与えずに長時間装着することができる。音声翻訳装置は、対面の場面(タクシーの車内や店舗のカウンターなど)で、英語と中国語の双方向の翻訳をリアルタイムに行う。会話翻訳は、発話ごとの翻訳ではなく、流れるような会話を可能とする。いくつかの実施では、音声翻訳デバイスは常にオンになっており、シングルタッチおよび/または音声による合図で起動する。個人用の翻訳機は、話している言語を検出し、受信した音声を会話の中の反対側の言語に自動的に翻訳する。例えば、フランスで英語を話す人が装着・使用した場合、検出されたフランス語を英語に、検出された英語をフランス語に翻訳する。これにより、2人以上の参加者の間で、2ヶ国語から多言語のシナリオが可能となる。パーソナル・トランスレーターの一部の実施では、翻訳された音声のトランスクリプトが音声翻訳デバイスのラウドスピーカーによって出力されるのと同時に、翻訳が表示される。この実施は、聴覚障害者が会話(同じ言語または2ヶ国語の会話)に参加するために特に有益である。いくつかの実施では、ラウドスピーカーは、最小限のエネルギー消費で翻訳された音声の音量を増加させることができる共鳴室を有している。)
イ 引用文献5記載事項
上記アの記載によると、引用文献5には、
「ウェアラブルの翻訳機において、話している言語を検出し、受信した音声を会話の中の反対側の言語に自動的に翻訳すること」(以下、「引用文献5記載事項」という。)が記載されている。

(6)新たに示す引用文献6(外国語を同時通訳してくれるイヤフォン「Pilot」はお手頃価格!,Techable(テッカブル),2016年5月29日,URL=https://techable.jp/archives/41092)には、次のとおりの記載がある。(下線は、当審が付した。)

「・会話をリアルタイムに翻訳
使うには専用アプリをスマホにダウンロードし、イヤホンを耳に装着するだけ。
異なる言語を話す人がお互いにこのイヤホンをつけると、相手の言葉が同時翻訳されるので、
リアルタイムに異言語で会話ができる。」
「例えば、英語を話す人とフランス語を話す人が会話するとき、Pilotをつけていれば、英語の話し言葉は相手のPilotからフランス語に翻訳されて流れる。
逆にフランス語の話し言葉は相手のPilotから英語となって流れるので、異なる言語での会話が成り立つわけだ。
・pilotはワイヤレスイヤホンとしても
開発を手がけたニューヨーク拠点のスタートアップWaverly Labsによると、Pilotはペアで販売されるので、相手に片方のピースを装着してもらうことで面識のない人とも会話ができる。
また、翻訳以外にも、普通にワイヤレスイヤホンとして音楽などを聞くことも可能となっている。」

(7)引用文献A
ア 原査定の拒絶の理由に引用された引用文献Aには、次のとおりの記載がある。下線は、当審が付した。
「【0027】
一例示的な実施形態では、2つ以上のHC100が、第1口語人間言語(すなわち、もととなる言語たる原始言語)から第2口語人間言語(すなわち、目標の言語)への即時翻訳を行い得る。そのような例により、HC100の2人以上のユーザは、各ユーザが、異なる言語を話し、当該ユーザが話しかけている相手と視線を合わせ続けながら、互いに対話することができる。翻訳の形式は、第1(原始)言語の音声から第2(目標)言語のテキストおよび音声を含み、またはその逆を含み得る。
【0028】
図2は、2つ以上のHC100同士の通信リンクおよび各HC100とクラウドベースネットワークリソース401とのリンクを確立することを含む即時翻訳の例示的な実施形態を示す。HC100は、マイクロディスプレイ210と、1つ以上のマイクロホン(マイク1およびマイク2)220と、1つ以上のオーディオスピーカ(スピーカ1およびスピーカ2)230と、動作可能に接続されたプロセッサ205からさらに構成されるメインボード101と、ノイズキャンセルモジュール(NCS)225と、コマンド制御モジュール250と、音声認識捕捉モジュール255と、音声合成モジュール260と、無線通信モジュール208とから構成され得る。HC100は、さらに、本発明の主体による即時音声翻訳を可能にする追加の要素から構成され得る。
【0029】
さらに、HC100のいくつかの実施形態では、ユーザは、好ましい性能のために、HC100の設定および動作をカスタマイズできる。カスタマイズは、即時翻訳セッションのためにローカル通信ネットワークを確立する前に、第1言語を、HC100の好ましい操作言語として設定することを含み得る。例えば、好ましい(またはデフォルト)言語が、コンピュータソフトウェアアプリケーション製品をHC100に最初にインストールし、設定する時に、設定され得る。理解されるように、好ましい言語は、例えばHC100のユーザが話している時などのいくつかの例では、原始言語であり得て、または、例えばHC100が当該好ましい言語以外の言語のテキストを受け取る時などは、目標言語であり得る。
【0030】
HC100とクラウドベースネットワークリソース401との通信が、スマートフォンなどの周辺ホストデバイス200を無線中継器として用いるさまざまな無線通信方法によって、可能にされ得る。いくつかの実施形態では、HC100は、Wi-Fi、3G(GSM(登録商標)、CDMAなど)もしくは4G LTEセルラー方式、またはWiFi-Directなどのさまざまな無線通信方法を用いて、クラウドベースネットワークリソース401と直接通信し得る。クラウドベースネットワークリソース401は、クラウドベース音声認識/ディクテーションモジュール405とテキスト翻訳モジュール410とを含み得る。
【0031】
図2は、2つ以上のHC100同士の通信リンクおよび各HC100とクラウドベースネットワークリソース401とのリンクを確立することを含む即時翻訳の例示的な実施形態を示す。各HC100間の通信リンクを含むローカル通信ネットワークが、確立され得る。Bluetooth(登録商標)パーソナルエリアネットワーク(PAN)プロファイルなどのプロトコルを用いる短距離無線が、ローカルネットワークのために用いられ得る。問合せメッセージング(interrogatory messaging)には、各HC100の好ましい(またはデフォルト)言語の設定を示すデータが含まれ得る。例えば、図2の2つのHC100Aおよび100Bを考慮すると、HC100Aは、英語話者301A(ユーザとも呼ぶ)に用いられ、英語音声を聞く(すなわち、認識する)ように構成されるが、一方、HC100Bは、仏語話者301B(ユーザとも呼ぶ)に用いられ、仏語音声を聞くように構成される。言い換えると、音声認識捕捉モジュール255は、ソフトウェアを介して各HC100の各ユーザの音声を認識するように構成される。
【0032】
HC100にインストールされたまたは実行されたソフトウェア製品アプリケーションの初期設定時、好ましい言語は、好ましい言語設定が、即時翻訳セッション前の、当該セッションを開始する要求の承認以外の追加のユーザ入力なしで、自動即時音声翻訳において参照され用いられるように、ユーザによって設定され得る。
【0033】
また、図2に示されるように、各HC100Aおよび100Bは、Bluetooth(登録商標)登録パケットなどの近距離(すなわち、およそ100フィート以下)ネットワーク問合せ305を継続して送信する。このようなネットワーク問合せにより、HC100Aおよび100Bは、当該デバイスが送信範囲内にある時、各ユーザ301Aおよび301Bの手間なしで、瞬時かつ自動的にローカルネットワーク310を構成できる。問合せ305は、好ましいまたはデフォルト言語などの各HC100の識別データと、他の動作特性とを保持し提供する。そのようなネットワーク310を識別および構成する時、HC100Bが近くにあることだけでなく、HC100Bが、仏語を話すユーザ301B用に設定されていることを、HC100Aは、認識させられる。同様に、そのようなローカル通信ネットワーク310を識別および構成する時、HC100Aが近くにあり英語を話すユーザ301A用に設定されていることを、HC100Bは認識する。さらに、各HC100(100Aおよび100B)は、各ユーザに即時音声翻訳セッションを開始できる選択肢を提供する。例えば、HC100は、即時翻訳セッションを開始するためのオンスクリーン選択肢を、マイクロディスプレイを介してユーザに提示してもよい。ユーザは、ボイスコマンド、ヘッドモーションコマンド、ハンドジェスチャーコマンド、またはそれらの組み合わせを用いて、この即時翻訳セッションリクエストを承認または拒絶できる。
【0034】
各ユーザ301Aおよび301Bが、即時音声翻訳セッションを一旦有効にすると、当該セッションは開始できる。例えば、英語話者301Aは、英語のフレーズをデバイス100Aに話す。HC100Aは、マイクロホン(複数可)220と連動して、音声認識捕捉モジュール255を用いて、英語音声オーディオ入力を捕捉する。捕捉された音声は、無線通信モジュール208を用いて、Wi-Fiまたは4G LTEなどのネットワーク接続415を介して、クラウドベース音声認識サービス405に送信される。クラウドベース音声認識サービス405は、典型的には数秒未満に、音声オーディオ入力を文章化された英語テキストとして、HC100Aに(接続415を介して)返す。
【0035】
そして、返された文章化英語テキストすなわち英語文章は、第1ヘッドセットコンピュータ、HC100A、によって、第2ヘッドセットコンピュータ、HC100Bに、例えばBluetooth(登録商標)接続であり得るローカルネットワークリンク310を通じて送信される。英語文章を受信した後、HC100Bは、英語文章をクラウドベーステキスト翻訳サービス410に(無線通信モジュール208を用いるネットワーク接続420を通じて)送信して、その結果、当該英語文章は、文章化された仏語テキストすなわち仏語文章に翻訳され得る。クラウドベーステキスト翻訳サービス410が、受信された英語文章から仏語文章への翻訳を一旦完了すると、仏語文章はネットワーク接続420を通じてHC100Bに返される。仏語文章を受信すると、HC100Bは、仏語文章をそのマイクロディスプレイ210に表示し、音声合成モジュール260が、オーディオスピーカ(複数可)230と連動して用いられて、対応する合成音声を仏語で生成する。
【0036】
当業者ならば、(仏語ユーザ301Bによる)仏語音声が、(英語ユーザ301側で)英語テキストおよび音声に翻訳されるように、プロセスが交互に入れ替えられて、その結果双方向翻訳サービスが実現され得ることが、分かるであろう。さらに、当業者ならば、上述の方法は、グループ翻訳オーディオのブロードキャストシステムが実現されるように、複数のHC100にまで適用範囲が拡張され得ることが、分かるであろう。言い換えると、例えば、英語話者301Aは、英語で話して、それぞれが異なる言語に設定された複数の他のHC100に英語文章をブロードキャストでき、それによって、多言語即時翻訳システムを構築できる。各HC100は、英語文章(例えば、原始言語すなわち第1言語(言語1)テキスト)を受信し、各HCの好ましい(またはデフォルト)言語設定に従って第1言語すなわち原始言語すなわち一の言語と異なる適切な言語(例えば、目標言語すなわち第2言語(または第3もしくはそれ以上、例えば、言語2または言語3など))に当該英語文章を、視覚表示および合成音声のために、別個に翻訳する。」
「【0045】
図4は、即時音声翻訳に用いられるHC100、周辺ホストデバイス200およびクラウドベースネットワークリソース505の別の実施形態を示す。HC100は、マイクロディスプレイ210と、1つ以上のマイクロホン(マイク1およびマイク2)220と、1つ以上のオーディオスピーカ(スピーカ1およびスピーカ2)230と、カメラ160と、動作可能に接続されたプロセッサ205からさらに構成されるメインボード101と、メモリまたは他の記憶装置(図示せず)と、ノイズキャンセルモジュール(NCS)225と、コマンド制御モジュール250と、音声認識/ディクテーションモジュール255と、音声合成モジュール260と、光学式文字認識(OCR)モジュール165と、無線通信モジュール208とから構成され得る。HC100は、さらに、即時音声翻訳を可能にする追加の要素から構成され得る。モジュール250、255、260、225は、上述のものである。
【0046】
さらに、HC100のいくつかの実施形態では、ユーザは、好ましい性能のために、HC100の設定および動作をカスタマイズできる。HC100とクラウドベースネットワークソース505との通信が、スマートフォンなどの周辺ホストデバイス200を無線中継器として用いるさまざまな無線通信方法によって、可能にされ得る。言い換えると、各HC100は、ホストデバイス200との通信リンクを含むローカル通信ネットワークを構成し得る。ホストデバイスは、第1すなわち原始言語(または第2すなわち目標言語)のテキストデータをネットワークサービス音声認識モジュール555(またはテキスト翻訳モジュール570)へ中継し得る。いくつかの実施形態では、HC100は、図2で上述したように、Wi-Fi、3G(GSM(登録商標)、CDMAなど)もしくは4G LTEセルラー方式、またはWiFi-Directなどのさまざまな無線通信方法を用いて、クラウドベースネットワークリソース505と直接通信し得る。クラウドベースネットワークリソース505は、クラウドベース音声認識/ディクテーションモジュール555と、OCRモジュール565と、音声合成モジュール560と、テキスト翻訳モジュール570とを含み得る。」
「【0048】
例示的な実施形態およびカスタマイズされた構成が、典型的には第2(外国)言語で、HC100のユーザ/携帯者以外の人が話した音声が認識され翻訳され得るように、異なるマイクロホン220に関連する異なるノイズレベル閾値を設定することを、含み得る。いくつかの例示的な実施形態では、HC100が、音声についての受け取られたオーディオ信号を聞き取り、モニタしている間、当該受け取られたオーディオ信号を処理するノイズキャンセル技術を用いなくてもよい。いくつかの例示的な実施形態では、合成音声が、特にユーザの各耳に対する少なくとも1つのオーディオスピーカ230を含むHCの例示的な実施形態において、ユーザ/携帯者に対して読み上げられ/発音される際にノイズキャンセル技術を用いてもよい。
【0049】
好ましい実施形態では、即時音声翻訳は、クラウドベースネットワークリソース505を用い得る。HC100は、Bluetooth(登録商標)またはWiFi Directなどの周知のワイヤレスプロトコルを用いて、無線通信モジュール208を介して、スマートフォンなどの周辺ホストデバイス200と通信し得る。スマートフォン200は、無線中継器として機能し得て、HC100とクラウドベースネットワークリソース505との通信を可能にする。HC100のいくつかの実施形態は、無線中継デバイス(例えば、ホスト200)を用いずにクラウドベースネットワークリソース505との通信を可能にする、4G LTE、Wi-Fiなどの複数の無線を含む無線通信モジュール208を含み得る。
【0050】
マイクロホン(マイク1およびマイク2)220は、1つの言語のボイス/オーディオ入力、すなわち、音声入力を受け取る。ノイズキャンセルモジュール(NCS)225が、背景雑音を除去するために用いられて、マイクロホン220で受け取られたボイス/音声入力のより正確な表現が、ローカル音声認識モジュール255に供給され得る。NCS225は、アクティブノイズキャンセル(ANC)などの任意のノイズキャンセル技術を使用し得る。1つの(原始)言語の処理済みまたは未処理のボイス/音声入力が、ローカル音声認識/ディクテーションモジュール255に提供される。音声認識モジュール255は、受け取ったデジタルオーディオ入力信号に対して音声認識を行い、(原始言語の)認識した音声を原始言語のテキストに変換する。得られた(前記一の言語の/原始言語の)認識テキストは、リモートクラウドベース翻訳モジュール570に送信される。
【0051】
リモートクラウドベース翻訳モジュール570は、受信した原始言語のテキストを翻訳して、翻訳テキストを生成する(すなわち、テキストを前記一の言語/原始言語から第2言語/目標言語へテキストを翻訳する)。クラウドベースネットワークサーバ505は、翻訳テキストをHC100に、例えばホスト200である中継器で、伝達する。翻訳テキストがHC100に受信された後、プロセッサは、コマンドを実行して、受信された目標言語のテキストをマイクロディスプレイ210に表示する。そして、翻訳テキストが、音声合成モジュール260に供給され得て、HC100の1つ以上のオーディオスピーカ230を用いて読み上げられ(発音され)得る。HC100のコマンド/制御モジュール250または音声/テキスト処理モジュール(STT255、TTS260)は、ユーザ毎にデフォルト(または好みの)言語設定を有してもよい。このようにして、HC100からホスト200を介して中継された翻訳要求は、ユーザのデフォルト(好みの)言語設定に基づいて、目標言語を自動的に設定する。ユーザは、HC100とクラウドベースネットワークサービス505との間でやりとりされた翻訳要求毎に、目標言語の指示を挿入または入力する必要がない。」

イ 引用発明A
上記アの記載によると、引用文献Aには、
「マイクロディスプレイと、マイクロホンと、オーディオスピーカと、動作可能に接続されたプロセッサから構成されるメインボードと、コマンド制御モジュールと、音声認識捕捉モジュールと、音声合成モジュールと、無線通信モジュールとから構成された2つのヘッドセット(100A、100B)とクラウドからなる翻訳システムにおいて、第1のヘッドセット100Aから、英語を話すと、マイクロホンと連動して、音声認識捕捉モジュールを用いて、英語音声オーディオ入力を捕捉し、捕捉された音声は、無線通信モジュールを用いて、ネットワーク接続を介して、クラウドベース音声認識サービスに送信され、クラウドベース音声認識サービスは、音声オーディオ入力を文章化された英語テキストとして、第1ヘッドセット100Aに返し、第1ヘッドセット100Aは、返された文章化英語テキストを、第2ヘッドセット100Bに、ローカルネットワークリンクを通じて送信し、第2ヘッドセット100Bは、文章化英語テキストを受信した後、文章化英語テキストをクラウドベーステキスト翻訳サービスに送信して、クラウドベーステキスト翻訳サービスは、当該英語文章を、文章化された仏語テキストすなわち仏語文章に翻訳し、仏語文章はネットワーク接続を通じて第2ヘッドセット100Bに返し、第2ヘッドセット100Bは、仏語文章を受信すると、仏語文章をそのマイクロディスプレイに表示し、音声合成モジュールが、オーディオスピーカと連動して用いられて、対応する合成音声を仏語で生成する翻訳システム。」(以下、「引用発明A」という。)が記載されている。

(8)引用文献B
ア 原査定の拒絶の理由に引用された引用文献Bには、次のとおりの記載がある。
「【技術分野】
【0001】
本発明は自動翻訳システム、自動翻訳サーバ装置及びそれらに用いる自動翻訳方法に関し、特に携帯電話端末を利用した自動翻訳システムに関する。
【背景技術】
【0002】
従来、携帯電話端末を利用した自動翻訳システムとしては、携帯電話端末の使用者が予め自分自身の使用する言語を選択した上で、自分の作成した電子メールを送信すると、それを自動で翻訳して通信相手に届けるというシステムがある(例えば、特許文献1参照)。
【0003】
また、他の自動翻訳システムとしては、音声ベースにおいて、自動で異言語間を翻訳するシステム(例えば、特許文献2参照)があるが、予め通話者の使用する言語がそれぞれ既知であり、したがって、翻訳元と翻訳先との言語がプリセットされた状態で通話が開始されることが前提となっている。」
「【0005】
上述した従来の自動翻訳システムでは、上記の特許文献1,2の何れの場合も、通信を行う端末利用者の使用言語が両方とも不明の場合、期待された翻訳が行われず、メールのやり取りや会話が成立しないという問題がある。
【0007】
そこで、本発明の目的は上記の問題点を解消し、未知の相手とでもスムーズに会話を成立させることができる自動翻訳システム、自動翻訳サーバ装置及びそれらに用いる自動翻訳方法を提供することにある。
また、本発明の他の目的は、特定の相手に対するデータベースを独自に構築することができ、よりスムーズな会話を実現することができる自動翻訳システム、自動翻訳サーバ装置及びそれらに用いる自動翻訳方法を提供することにある。
【課題を解決するための手段】
【0008】
本発明による自動翻訳システムは、ネットワークを介して接続される端末装置間の通信において、発側の端末装置からの通信を着側の端末装置で使用される言語に翻訳する自動翻訳サーバ装置を前記ネットワークに接続してなる自動翻訳システムであって、
前記自動翻訳サーバ装置が、前記端末装置から前記ネットワークを介して入力される通信の言語の種類を認識する認識手段と、前記認識手段の認識結果に応じて前記発側の端末装置からの通信を前記着側の端末装置で使用される言語に変換して出力する翻訳手段とを備えている。
【0009】
本発明による他の自動翻訳システムは、ネットワークを介して接続される端末装置間の通信において、発側の端末装置からの通信を着側の端末装置で使用される言語に翻訳する自動翻訳サーバ装置を前記ネットワークに接続してなる自動翻訳システムであって、
前記自動翻訳サーバ装置が、外部から入力される言語を認識して中間言語に変換する言語認識手段と、前記中間言語を目的の言語に変換して出力する言語翻訳手段と、前記言語翻訳手段による言語変換の際に参照される言語データベースと、加入者の使用する言語の種類を記憶する言語記憶手段と、前記中間言語を一旦蓄積する中間言語蓄積手段とを備えている。」
イ 引用文献B記載事項
上記アの記載によると、引用文献Bには、
「ネットワークを介して接続される端末装置間の通信において、発側の端末装置からの通信を着側の端末装置で使用される言語に翻訳する自動翻訳サーバ装置を前記ネットワークに接続してなる自動翻訳システムであって、前記自動翻訳サーバ装置が、前記端末装置から前記ネットワークを介して入力される通信の言語の種類を認識する認識手段と、前記認識手段の認識結果に応じて前記発側の端末装置からの通信を前記着側の端末装置で使用される言語に変換して出力する翻訳手段を備えた自動翻訳システム。」(以下、「引用文献B記載事項」という。)が記載されている。

第6 当審拒絶理由の理由2(進歩性)について
1 本願発明1について
(1)対比
本願発明1と引用発明1とを対比する。
ア 引用発明1の「スマートフォン」、「アプリ」、「イヤホン」は、それぞれ、本願発明1の「電子機器」、「アプリケーション」、「イヤセット機器」に相当し、引用発明1の「イヤホン内部にブルートゥース搭載のマイクが搭載された、2人の話者間で使用するイヤホン型翻訳機と、スマートフォン内のアプリとからなる自動翻訳方法」は、本願発明1と同様の「電子機器が実行する通訳機能提供方法」であるといえる。
イ 引用発明1において、イヤホンは、ブルートゥースで2人の話者がスマートフォンを介して使用するものであるから、イヤホンが2つあり、これらがペアとなっていることは明らかである。よって、引用発明1の2つのイヤホンは、それぞれ、本願発明1の「第1のイヤセット機器」、「第2のイヤセット機器」に相当し、「第1イヤセット機器および第2イヤセット機器はイヤセットペアを構成」するものである。
ウ 引用発明1の「イヤホン内部のマイクで音声をキャッチしてスマートフォンに転送し、スマートフォン内のアプリは、音声認識を使用して音声をテキスト化し、これを機械翻訳であらかじめ設定された言語へと翻訳し、翻訳されたテキストを、テキスト読み上げ機能で音声変換し、会話相手のイヤホンに送信」することは、本願発明1の「前記実行するアプリケーションの制御にしたがい、前記第1イヤセット機器および前記第2イヤセット機器のうちの一方を通じて受信した音声に対する他の言語への通訳機能を提供する段階、および前記他の言語へ通訳された結果を、前記第1イヤセット機器および前記第2イヤセット機器のうちの他方へ送信する段階」に相当する。
エ 引用発明1において、スマートフォンは翻訳を行う際に、アプリケーションを実行していることは明らかであるから、引用発明1は、「アプリケーションを実行する段階」を有している。
オ 以上、上記ア?エによると、本願発明1と引用発明1とは、次の一致点、相違点を有する。
[一致点]
電子機器が実行する通訳機能提供方法であって、
アプリケーションを実行する段階、
前記実行するアプリケーションの制御にしたがい、前記第1イヤセット機器および前記第2イヤセット機器のうちの一方を通じて受信した音声に対する他の言語への通訳機能を提供する段階、および
前記他の言語へ通訳された結果を、前記第1イヤセット機器および前記第2イヤセット機器のうちの他方へ送信する段階
を含み、前記第1イヤセット機器および前記第2イヤセット機器はイヤセットペアを構成している、通訳機能提供方法。
[相違点1]
アプリケーションの実行を、本願発明1では、「第1イヤセット機器または前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器で発生するアプリケーション実行信号を受信」し、「前記受信したアプリケーション実行信号に対応」して、実行するのに対し、引用発明1では、そのような特定のない点。
[相違点2]
イヤセットペアを構成する第1イヤセット機器および第2イヤセット機器が、本願発明1では、「左右の耳に着用される」のに対し、引用発明1では、そのような特定のない点。
[相違点3]
本願発明1が、「前記第1イヤセット機器を通じて入力され前記電子機器が受信した第1言語の音声を第2言語のテキストに変換して前記電子機器のディスプレイで表示し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した第2言語の音声を第1言語のテキストに変換して前記電子機器のディスプレイで表示する」ものであるのに対し、引用発明1では、音声を翻訳されたテキストとして電子機器のディスプレイで表示するものではない点。

(2)相違点の判断
[相違点1]について
引用文献2記載事項から、引用発明1において、イヤセット機器の操作の簡素化、機械的部分の使用寿命の改善のために、「第1イヤセット機器または前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器で発生するアプリケーション実行信号を受信」し、「前記受信したアプリケーション実行信号に対応」してアプリケーションを実行する構成とすることは当業者が容易に想到し得た事項である。
[相違点2]について
本願発明1は、「電子機器が実行する通訳機能提供方法」であり、第1イヤセット機器および第2イヤセット機器が「左右の耳に着用される」という構成は、第1イヤセット機器と第2イヤセット機器の耳への着用の仕方を特定したものであり、「電子機器が実行する通訳機能提供法」の構成を特定するものではないから、本願発明1と引用発明1との実質上の相違点ではない。
実質上の相違点であったとしても、ペアをなす2つのイヤセット機器をそれぞれ左右の耳に着用する構成とすることは、引用文献6に記載されていることから、当業者が適宜なし得た事項である。
[相違点3]について
引用文献2?引用文献6は、いずれも、音声を翻訳されたテキストとして電子機器のディスプレイで表示する技術を開示するものではなく、音声を翻訳されたテキストとして電子機器のディスプレイで表示する技術が周知技術であったとしても、2つのイヤセット機器からそれぞれ入力された音声について、相違点3に係る「前記第1イヤセット機器を通じて入力され前記電子機器が受信した第1言語の音声を第2言語のテキストに変換して前記電子機器のディスプレイで表示し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した第2言語の音声を第1言語のテキストに変換して前記電子機器のディスプレイで表示する」構成を当業者が容易に想到し得た事項であるとはいえない。
このため、引用発明1及び引用文献2?6に記載された事項に基づいて、相違点3に係る構成を当業者が容易に想到し得えた事項であるとはいえない。
[作用効果]について
本願発明1は、相違点3に係る構成により、「第1イヤセットの第1ユーザと第2のイヤセットの第2のユーザは電子機器を介して表示される第2の言語の文字と第1の言語の文字を一緒に見ながら通訳機能の提供をもらうことができる」(本願明細書【0074】)という作用効果を奏するものである。
[まとめ]
したがって、本願発明1は、引用発明1及び引用文献2?6に記載された事項に基づいて、当業者が容易に発明をすることができたものではない。

2 本願発明2?9について
本願発明2?9は、本願発明1を減縮した発明であり、上記1で検討した相違点3に係る本願発明1の構成を備えるものであるから、本願発明1と同様な理由により、当業者であっても、引用発明1及び引用文献2?6に記載された事項に基づいて容易に発明をすることができたものではない。

3 本願発明10について
本願発明10は、本願発明1の「電子機器が実行する通訳機能提供方法」を「通訳提供方法」の発明としたものであって、上記1で検討した相違点3に係る本願発明1に対応する構成を備えるものであるから、本願発明1と同様な理由により、当業者であっても、引用発明1及び引用文献2?6に記載された事項に基づいて容易に発明をすることができたものではない。

4 本願発明11?13について
本願発明11?13は、本願発明10を減縮した発明であり、上記1で検討した相違点3に係る本願発明1に対応する構成を備えるものであるから、本願発明1と同様な理由により、当業者であっても、引用発明1及び引用文献2?6に記載された事項に基づいて容易に発明をすることができたものではない。

5 本願発明14、15について
本願発明14は、「コンピュータと結合して請求項1?13のうちのいずれか一項に記載の方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納された、コンピュータプログラム」の発明であり、本願発明15は、「請求項1?13のうちのいずれか一項に記載の方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータで読み取り可能な記録媒体」の発明であって、本願発明14、15は、いずれも、上記1で検討した相違点3に係る本願発明1の構成に対応する構成を備えるものであるから、本願発明1と同様な理由により、当業者であっても、引用発明1及び引用文献2?6に記載された事項に基づいて容易に発明をすることができたものではない。

第7 当審拒絶理由の理由1(明確性)について
令和2年2月12日の手続補正により補正された特許請求の範囲の請求項10?13の「第1イヤセット機器の通訳機能提供方法」を引用する請求項14、15に対して、当審拒絶理由の理由1(明確性)を通知したが、令和3年7月26日にされた手続補正により、請求項10?13の記載が「通訳機能提供方法」と補正されたため、当審拒絶理由の理由1(明確性)は解消した。

第8 原査定の拒絶の理由について
引用発明Aは、本願発明1、本願発明10の第1イヤセット機器または前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器と、電子機器とで構成される翻訳機能提供方法とは、その前提となる機器の構成が異なるものであり、また、上記相違点3に係る構成を備えるものでもない。
引用文献B記載事項によると、引用文献Bには、言語の種類を認識し、認識結果に応じて発側の端末装置からの通信を着側の端末装置で使用される言語に変換して出力することが記載されているが、本願発明1、本願発明10の第1イヤセット機器または前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器と、電子機器とで構成される翻訳機能提供方法を開示するものではなく、また、上記相違点3に係る構成を開示するものでもない。
よって、本願発明1、本願発明10は、引用発明A及び引用文献B記載事項に基づいて当業者が容易に発明をすることができたものではない。
本願発明2?9、11?15についても同様である。
よって、原査定を維持することはできない。

第9 むすび
以上のとおり、本願発明1?15は、当業者が引用発明及び引用文献2?6に記載された事項に基づいて、当業者が容易に発明をすることができたものではない。
また、本願発明1?15は、引用文献Aに記載された発明及び引用文献Bに記載された事項に基づいて、当業者が容易に発明をすることができたものではない。
したがって、原査定の拒絶の理由及び当審拒絶理由によって、本願を拒絶することはできない。
また、他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2021-10-06 
出願番号 特願2017-220005(P2017-220005)
審決分類 P 1 8・ 121- WY (G06F)
P 1 8・ 537- WY (G06F)
最終処分 成立  
前審関与審査官 成瀬 博之  
特許庁審判長 渡邊 聡
特許庁審判官 上田 智志
高瀬 勤
発明の名称 電子機器の通訳機能提供方法  
代理人 大貫 進介  
代理人 伊東 忠重  
代理人 伊東 忠彦  
代理人 伊東 忠重  
代理人 伊東 忠彦  
代理人 宮崎 修  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ