• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない。 G06T
管理番号 1287102
審判番号 不服2013-12669  
総通号数 174 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2014-06-27 
種別 拒絶査定不服の審決 
審判請求日 2013-07-03 
確定日 2014-04-21 
事件の表示 特願2009-103829「端末装置及びプログラム」拒絶査定不服審判事件〔平成22年11月11日出願公開、特開2010-257038〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 経緯
1.手続
本願は、平成21年4月22日を出願日とする出願であって、手続の概要は以下のとおりである。

拒絶理由通知 :平成24年12月17日(起案日)
手続補正 :平成25年 1月31日
拒絶査定 :平成25年 4月 2日(起案日)
拒絶査定不服審判請求 :平成25年 7月 3日
手続補正 :平成25年 7月 3日
前置審査報告 :平成25年 7月30日
審尋 :平成25年 9月11日(起案日)
回答書 :平成25年10月23日

2.査定
原査定の理由は、概略、以下のとおりである。

理 由
本願の請求項1ないし6に係る発明(平成25年1月31日付け手続補正書による)は、その出願前日本国内又は外国において頒布された下記刊行物に記載された発明に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。


刊行物1.特開2007-215054号公報

第2 補正の適否
平成25年7月3日付けでなされた手続補正では、補正前の請求項4を削除するとともに、以下に記載するように、補正前の請求項1の記載を補正後の請求項1の記載とする補正を行ってなっている。

【請求項1】(補正前)
音声録音機能及び録音再生機能を有した端末装置であって、
前記音声録音機能による録音中にあって被投影体上に投影される投影画像が特定された際に、そのときの投影画像を撮像部に撮影させてキャプチャする画像キャプチャ手段と、
この画像キャプチャ手段によるキャプチャ画像を記憶管理すると共に、このキャプチャ画像に対応付けて当該キャプチャ時の録音位置を記憶管理する記憶手段と、
前記録音再生機能による録音内容の再生時に、現在の再生位置と前記画像キャプチャ時の録音位置とを比較する比較手段と、
この比較手段による再生位置と録音位置との比較結果に応じて、当該録音位置に対応付けて記憶管理されているキャプチャ画像を前記記憶手段から読み出して対応する前記録音内容の再生と共に出力させる出力制御手段と、
を具備したことを特徴とする端末装置。

【請求項1】(補正後)
音声録音機能及び録音再生機能を有した端末装置であって、
前記音声録音機能による録音中にあって被投影体上に投影される投影画像が特定された際に、そのときの投影画像を撮像部に撮影させてキャプチャする画像キャプチャ手段と、
この画像キャプチャ手段によるキャプチャ画像を記憶管理すると共に、このキャプチャ画像に対応付けて当該キャプチャ時の録音位置を記憶管理する記憶手段と、
前記録音再生機能による録音内容の再生時に、現在の再生位置と前記画像キャプチャ時の録音位置とを比較する比較手段と、
この比較手段による再生位置と録音位置との比較結果に応じて、当該録音位置に対応付けて記憶管理されているキャプチャ画像を前記記憶手段から読み出して対応する前記録音内容の再生と共に出力させる出力制御手段と、
外部装置によって前記被投影体上に投影されている投影画像を撮影する撮影手段と、
を備え、
前記画像キャプチャ手段は、前記撮影手段によって撮影された画像を認識し、この画像認識の結果、その内容が変化したことを検出した時点を前記投影画像が特定された際としてそのときの投影画像をキャプチャする、
ことを特徴とする端末装置。

すなわち、補正前の請求項1に
「外部装置によって前記被投影体上に投影されている投影画像を撮影する撮影手段と、
を備え、
前記画像キャプチャ手段は、前記撮影手段によって撮影された画像を認識し、この画像認識の結果、その内容が変化したことを検出した時点を前記投影画像が特定された際としてそのときの投影画像をキャプチャする、」
の構成を付加したものといえる。
ところで、補正前の請求項4は、以下のとおりの記載である。

「外部装置によって被投影体上に投影されている投影画像を撮影する撮影手段を更に備え、
前記画像キャプチャ手段は、前記撮影手段によって撮影された画像を認識し、この画像認識の結果、その内容が変化したことを検出した時点を前記投影画像が特定された際としてそのときの投影画像をキャプチャする、
ようにしたことを特徴とする請求項1記載の端末装置。」

してみると、上記補正後の請求項1は、補正前の請求項4の構成であるといえ、したがって、平成25年7月3日付けでなされた補正は、補正前の請求項4を補正後の請求項1とし、補正前の請求項1を削除する補正であるといえる。
そして、上記補正前の請求項4に記載された発明は、願書に最初に添付した明細書、特許請求の範囲又は図面に記載した事項であるから、平成25年7月3日付けでなされた補正は、特許法第17条の2第3項、及び同法同条第5項第5号の規定を満たすものであり、当該補正は適法なものであると認める。

第3 本願発明について
1.本願発明
平成25年7月3日付けの手続補正は上記のとおり適法なものであると認められたので、本願の請求項1ないし5に係る発明は、平成25年7月3日付け手続補正書により補正された特許請求の範囲の請求項1ないし5に記載された事項により特定されるとおりのものであると認める。
そのうち、請求項1に係る発明(以下「本願発明」という)は、上記補正された特許請求の範囲の請求項1に記載された事項により特定される、以下のとおりのものである。

【請求項1】(本願発明)
音声録音機能及び録音再生機能を有した端末装置であって、
前記音声録音機能による録音中にあって被投影体上に投影される投影画像が特定された際に、そのときの投影画像を撮像部に撮影させてキャプチャする画像キャプチャ手段と、
この画像キャプチャ手段によるキャプチャ画像を記憶管理すると共に、このキャプチャ画像に対応付けて当該キャプチャ時の録音位置を記憶管理する記憶手段と、
前記録音再生機能による録音内容の再生時に、現在の再生位置と前記画像キャプチャ時の録音位置とを比較する比較手段と、
この比較手段による再生位置と録音位置との比較結果に応じて、当該録音位置に対応付けて記憶管理されているキャプチャ画像を前記記憶手段から読み出して対応する前記録音内容の再生と共に出力させる出力制御手段と、
外部装置によって前記被投影体上に投影されている投影画像を撮影する撮影手段と、
を備え、
前記画像キャプチャ手段は、前記撮影手段によって撮影された画像を認識し、この画像認識の結果、その内容が変化したことを検出した時点を前記投影画像が特定された際としてそのときの投影画像をキャプチャする、
ことを特徴とする端末装置。

2.引用刊行物の記載
原査定の拒絶の理由に引用された刊行物である特開2007-215054号公報(以下「刊行物1」という。)には、図面と共に次に掲げる事項が記載されている。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、会議情報を記憶できる電子装置に関し、より詳細には、着脱可能な記憶装置を用いて、その内部に格納されたプログラムを用いて会議情報である画像や音声情報を取得(キャプチャ)し、内部に格納する機能を備えた電子装置に関する。
【背景技術】
【0002】
従来から、カメラやマイクを用いて会議の画像や音声などの会議情報を取得してメモリに格納し、メモリから会議情報を読み出して会議を再現することが提案されている。また、プレゼンテーション用アプリケーションを動作させて、ユーザが操作したタイミングで
表示された画像を取得し、これを会議情報としてメモリに記憶することも行われている。
【0003】
特許文献1は、着脱可能なメモリに、プレゼンテーション用アプリケーションに対してユーザが行った操作指示内容とその発生時刻に関するイベントデータを記録するとともに、イベントデータの取得と記憶をプレゼンテーション用のコンピュータに実行させるプログラムとを格納することを提案している。このメモリをコンピュータに接続するだけで、会議のイベントデータを自動的に取得することができるという効果が得られる。
【特許文献1】特開2004-227514号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載の従来技術では、会議の画像や音声などの会議情報は、プレゼンテーション用コンピュータとは別のコンピュータで取得し、記憶する構成となっているため、使い勝手が良くないという問題点がある。また、取得し記憶した会議情報を用いて会議を再現する場合には、イベントデータを格納するメモリと、会議情報を記憶するコンピュータやプレゼンテーション用アプリケーションを格納するコンピュータとを接続し、イベントデータと会議情報とをマージして(組み合わせて)、会議を再現するための再生データを生成する必要があり、使い勝手が良くない。また、イベントデータと会議情報とのマージ処理は、マージするためのプログラムがマージ処理をするために用いられるコンピュータにインストールされている必要があるが、マージ処理用のプログラムがインストールされていないコンピュータではマージ処理を行うことができず、使い勝手が良くない。
本発明は上記従来技術の問題点を解決し、会議情報の取得及び再生を容易に行えるようにすることを課題とする。

【発明を実施するための最良の形態】
【0007】
添付図面を参照しながら本発明の好適な実施例を説明する。
図1は、本発明の実施例に係る電子装置のブロック図である。電子装置10は、着脱自在のメモリであって、例えばUSBメモリである。以下、電子装置10をUSBメモリ10という。USBメモリ10は、インタフェース部12とメモリ部14とを有する。メモリ部14は記憶領域として、プログラム領域16とデータ領域18とを有する。メモリ部14のメモリ領域がプログラム領域16をデータ領域18とにハード的に区分けされていない場合、プログラムが格納されたメモリ領域がプログラム領域16となり、データが格納された領域がデータ領域となる。インタフェース部12は、コンピュータなどの外部装置とのインタフェースを形成するもので、USBメモリで一般的に用いられている構成である。例えば、インタフェース部12は、USBコントローラ(ハードウェア)や、初期化、接続、転送、切断などの機能を実現するソフトウェアを備えている。
【0008】
プログラム領域16は、第1の処理手段から第6の処理手段を実現するプログラムを格納する。第1の処理手段は、会議での画像と音声の少なくとも1つを含む会議情報を取得してデータ領域18又はUSBメモリ10以外の記憶領域(これらを総称して所定の記憶領域という)に格納する処理をコンピュータに実行させる。例えば、第1の処理手段は、前記前記画像と音声とを関連付けてタイムスタンプ情報とともにデータ領域18又はUSBメモリ10以外の記憶領域に格納する。第2の処理手段は、データ領域18又はUSBメモリ10以外の記憶領域に格納された会議情報をコンピュータに表示するための処理をコンピュータに実行させる。第3の処理手段は、会議情報に基づいて議事録を構成する議事録情報を生成してデータ領域18又はUSBメモリ10以外の記憶領域に格納する処理をコンピュータに実行させる。第4の処理手段は、会議情報と議事録情報の少なくとも1つを外部に送出する処理をコンピュータに実行させる。外部とは、例えば、USBメモリ10が接続されたコンピュータそのものである。第5の処理手段は、USBメモリ10が接続されたコンピュータの能力及び動作状況の少なくとも1つに関する情報を取得してデータ領域18又はUSBメモリ10以外の記憶領域に格納するとともに、この情報に基づきコンピュータの能力及び動作状況に応じた負荷となるように前記第1から第4の処理手段の少なくとも1つを制御する処理をコンピュータに実行させる。第6の処理手段は、データ領域18に格納されたユーザ毎の環境情報を参照し、この環境情報に応じた処理となるように第1から第4の手段の少なくとも1つを制御する処理をコンピュータに実行させる。

【0010】
図2は、プログラム領域内に格納されたプログラムの構成を示す図である。このプログラムは、PC性能・使用状況検出部20、キャプチャ部22、ビューワ部24、議事録作成部26及びアップロード部28として機能する。上述した第1の処理手段は、キャプチャ部22に対応する。第2の処理手段は、ビューワ部24に対応する。第3の処理手段は、議事録作成部26に対応する。第4の処理手段は、アップロード部28に対応する。第5の処理手段及び第6の処理手段は、PC性能・使用状況検出部20に対応する。図2のサーバ30は、USBメモリ10が接続されるコンピュータを介して接続されるコンピュータ、又はUSBメモリ10が直接接続されるコンピュータである。サーバ30は、後述する検索や、PC、PDAなどのコンピュータや携帯電話に情報を配信する機能を有する。
【0011】
図1及び図2に示すUSBメモリ10は、図3に示すコンピュータ100に接続され、図2に示す各部のプログラムをこのコンピュータ(以下、PCという場合がある)100が実行することにより、上記第1から第6の処理手段が実現される。コンピュータ100は、CPU101、メモリ102、HDD103、通信インタフェース(I/F)部104、マウスやキーボードなどの操作部105、モニタ106、外部インタフェースを構成する複数のUSB端子107、音源ボード113及びバス108を有する。USBメモリ10は、USB端子107に挿入される。コンピュータ100は、通信I/F部104を介してネットワーク110に接続し、ネットワーク110に接続されたサーバ30とデータの授受を行うことができる。勿論、コンピュータ100はネットワーク110に接続されたコンピュータと通信することができる。
【0012】
次に、図2に示す各部20?28の概要について説明する。USBメモリ10をコンピュータ100のUSB端子107に挿入すると、まず、PC性能・使用状況検出部20が公知のオートラン機能により自動的に起動し、図3のCPU101がこのプログラムを実行することにより、一例として図4に示す機能が実現される。PC性能・使用状況検出部20は、コンピュータ100に接続しているデバイスの情報(図4の例ではカメラ)及び付帯しているデバイスの情報を検出する機能、及びCPU101やメモリ102の状況を静的にかつ動的に検出する機能を備える。図4の例では、静的なデバイス情報はカメラの情報やCPUの動作周波数、内部メモリの動作周波数と容量であり、動的なデバイス情報はCPU使用率やコミットチャージである。
【0013】
キャプチャ部22は、図5に示すように、オートラン機能により自動的に起動するか、又は図3の操作部105を用いてユーザが起動を指示することで起動する。キャプチャ部22は、コンピュータ100のモニタ106上の画面と、USB端子107に接続されたマイク112を介して入力した音声とをキャプチャし、これらの画像情報と音声情報を会議情報として、図1に示すUSBメモリ10のデータ領域18に格納する。データ領域18に代えて、コンピュータ100に接続される他の記憶領域を用いてもよい。例えば、コンピュータ100内部のハードディスク、DVDなどのドライブ、着脱可能はハードディスクドライブ、着脱可能なコンパクトディスクなどの着脱可能な記録媒体を含む電子装置、更にはサーバ30を用いてもよい。図5の114は、コンピュータ100に接続されたプロジェクタであって、コンピュータ100で使用されているプレゼンテーション用アプリケーションの画面(スライド)をスクリーン116に投影する。なお、図5には示していないが、コンピュータ100に図4に示すカメラを接続して会議の様子を撮影し、これを会議情報としてデータ領域18に格納することができる。キャプチャのタイミングは例えば、オペレータがプレゼンテーション中にコンピュータ100を操作したタイミングや、一定周期のタイミングでもよい。また、ユーザが特定のキー操作をした場合をキャプチャのタイミングとしてもよい。
【0014】
ビューワ部24は、図6に示すように、オートラン機能により自動的に起動するか、又は図3の操作部105を用いてユーザが起動を指示することで起動する。ビューワ部24は、データ領域18に保存された会議情報をデータ領域18から読み出して、コンピュータ100のモニタ106上に表示する。図6の例では、画像情報とこれに関連付けられた音声情報のサムネイルがモニタ106上に表示されており、モニタ106上のスタートアイコン108及びストップアイコン112をクリックすることで、再生及び停止更にはサムネイルチャプタごとの再生が行える。

【0019】
図11は、キャプチャ部22の構成を示すブロック図である。キャプチャ部22は、キャプチャ起動部S31、キャプチャタイミング管理部S32及びキャプチャ停止部S33を含む。図12は、キャプチャ起動部22の構成例を示す図である。会議情報の取得処理の開始、すなわちキャプチャの開始は、図12(A)に示すように、コンピュータ100にUSBメモリ10を挿入した時点で自動的にキャプチャ部22が起動する(より詳細に言えば、キャプチャ部22を構成するプログラムが起動する)場合と、USBメモリ10をコンピュータ100に挿入した時点ではキャプチャを開始せず、図12(B)に示すように、タスクバーなどにプログラムが起動し、キャプチャのタイミングについてはマウス操作やキー操作など、ユーザが操作部105(図3)を操作することでタイミングを指定する場合とがある。
【0020】
ここで、前述した静的及び動的なデバイス情報に応じて、つまり、USBメモリ10が挿入されたコンピュータ100の性能や使用状況に応じて、キャプチャ処理の挙動を変更することができる。例えば、CPU101のパワー(CPUの品種、動作クロックなど)に応じて画像及び音声情報をサンプリングする際の最適なサンプリングレートを設定することができる。また、コンピュータ100に附属するデバイスが存在する場合には、このデバイスから会議情報を取得することができる。例えば、カメラがコンピュータ100に接続されていることがPC性能・使用状況検出部20により検出されると、カメラからの画像もキャプチャして会議情報としてUSBメモリ10に取り込むことができる。更に、CPU101の使用率など動的なデバイス情報に応じて、サンプリングレートを変更することもできる。

【0023】
図15は、キャプチャ部22の別のプログラムを記述するフローチャートである。キャプチャ部22は、コンピュータ100に外部接続されたデバイスに応じて、図15の処理を実行する。CPU101はPC性能・使用状況検出部20で取得したデバイス情報を受け取り(ステップS41)、キャプチャ部22の当該プログラムを動作させ(ステップS42)、カメラが接続又は付帯(内蔵)されているかどうかを判断する(ステップS43)。CPU101はカメラが接続されていないと判断した場合には処理を終了し(ステップS46)、カメラが接続されていると判断した場合には、USBメモリ10からカメラ用キャプチャプログラムをロードしてメモリ102に展開する(ステップS44)。そして、CPU101は、ロードしたプログラムを実行し、カメラ用キャプチャ用の選択メニューを表示する(ステップS45)。
【0024】
図16は、キャプチャするデータの形式を示す図である。図16(A)は、画像と音声とを一つずつ記録する形式を示す。画像は例えばプレゼンテーション用アプリケーションの画像やカメラで撮影した画像であり、音声(より詳細には、音声ファイル)は1つの画像ファイル(一枚の画像)に関連付けられている。図16(B)は1つの音声と複数の画像ファイルとを関連付けるとともに、タイムスタンプ(CSV)を付加する形式である。カメラがコンピュータに接続されている場合には、カメラからの画像ファイルと音声ファイルとを関連付けてもよい。
図17は、別のデータ形式を示す図である。図17のデータ形式は、一つの長い音声を記録する際に用いる。長い音声が記録された場合には、CPU101はキャプチャ後にタイムスタンプのファイルを用いて、音声ファイルを複数のファイルに分割し、画像ファイル毎に関連付ける。この処理は、USBメモリ10が挿入されたコンピュータ100で行ってもよいし、サーバ30(図2)で行ってもよい。サーバは1つの音声ファイルと複数の画像ファイルとを受け取り、音声ファイルを分割する。
【0025】
図18は、図11に示すキャプチャタイミング管理部S32のプログラム構成を示す図である。キャプチャタイミング管理部S32は、ユーザの操作による画面の切り替わりを検出することで、自動的に画像(この場合は静止画)と音声との同期をとる。図18のプログラムは図16(A)のデータ形式に対応する。CPU101は図18のプログラムの実行を開始(ステップS51)した後、モニタ106(図3)上の画面をキャプチャし(ステップS52)、この画面を画面Aとする(ステップS53)とともに、音声のキャプチャを開始する(ステップPS54)。CPU101は一定周期で画面(画面(B)とする)をキャプチャし(ステップS55)、画面Aと画面Bとが同じであるか否かを判断する(ステップS56)。Noの場合にはステップS55に戻り、Yesの場合には画面Aを保存する(ステップS57)。そして、CPU101は画面Bを画面Aとし(ステップS58)、音声のキャプチャを停止し(ステップS59)、音声を保存する(ステップS60)。そして、画面Bに関連付けられる音声のキャプチャを開始し(ステップS61)、ステップS55に戻る。なお、図11のキャプチャ停止部S33が発行する停止命令を受けると、処理を停止する。停止命令は例えば、USBメモリ10をコンピュータ100から抜くことで、又は操作部105(図3)のマウスやキー操作に応答して、キャプチャ停止部S33が発行する。
【0026】
図19は、キャプチャタイミング管理部S32の別のプログラム構成を示す図であって、図16(B)のデータ形式に対応する。ステップS51からS58までは、図18のステップS51とS58と同じである。図19では、ステップS58の次に、CPU101がステップS62を実行し、タイムスタンプを更新する。図18の処理とは異なり、音声のキャプチャを停止しないので、複数の画像ファイルに関連して1つの音声ファイルを作成することができる。

【0030】
次に、図2に示すビューワ部24を説明する。図23は、ビューワ部24の機能を模式的に説明するための図である。ビューワ部24のプログラムをCPU101が実行することで、静止画と音声をUSBメモリ10のデータ領域から読み込んでモニタ106上に表示する機能(図23(A))と、静止画と音声を同様に読み込んでコンテンツ(例えばmacromedia社Flashなど)を作成して表示する機能(図23(B))が提供される。
ビューワ部24は、PC性能・使用状況検出部20からの静的及び動的デバイス情報に基づき、その挙動(画面表示)を変更することができる。例えば、モニタ106の画面解像度に応じた表示画面の形成や、モニタ106上の表示領域の大きさに応じて視覚性が維持できるような表示画面の形成(例えば、画像伝体を拡大して部分的に表示する、又は一部を拡大して表示する)を行う。
図24は、USBメモリ10のデータ領域18に格納された3つの表示倍率テーブル130、132、134を示す。これらの表示倍率テーブルを用いて、視聴時のビューワの挙動変更(表示画面の形成・変更)を行う。表示倍率テーブル130は、USBメモリ10が挿入されるコンピュータ100のモニタ106の画面解像度と、ドキュメントに含まれる文字の最小ポイント数と、この文字の書体と、に応じて決定される表示倍率を規定している。ドキュメントに含まれる文字の最小ポイント数に関する情報、及びこの文字の書体に関する情報は、例えばプレゼンテーション用アプリケーション又は画像情報をOCR処理することで取得する。表示倍率テーブル132は、USBメモリ10が挿入されるコンピュータ100のモニタ106の画面解像度と、ドキュメントに含まれる文字のうち中央値にあたるポイント数と、この中央値にあたるポイント数の文字のうち最も多い書体と、に応じて決定される表示倍率を規定している。ドキュメントに含まれる文字のうち中央値にあたるポイント数に関する情報と、この中央値にあたるポイント数の文字のうち最も多い書体に関する情報は、例えばプレゼンテーション用アプリケーション又は画像情報をOCR処理することで取得する。表示倍率テーブル134は、USBメモリ10が挿入されるコンピュータ100のモニタ106の画面解像度と、ドキュメントに含まれる文字のうち平均値にあたるポイント数と、この平均値にあたるポイント数の文字のうち最も多い書体と、に応じて決定される表示倍率を規定している。ドキュメントに含まれる文字のうち平均値にあたるポイント数に関する情報と、この平均値にあたるポイント数の文字のうち最も多い書体に関する情報は、例えばプレゼンテーション用アプリケーション又は画像情報をOCR処理することで取得する。

3.刊行物1に記載された発明
以上の刊行物1の記載からみて、刊行物1には、次の発明が記載されている。

(3-1)(USBメモリが接続された)コンピュータ
刊行物1には【0011】に「図1及び図2に示すUSBメモリ10は、図3に示すコンピュータ100に接続され、図2に示す各部のプログラムをこのコンピュータ(以下、PCという場合がある)100が実行することにより、上記第1から第6の処理手段が実現される。」と記載されているから、USBメモリが接続されたコンピュータは第1から第6の処理を行う処理手段といえる。
上記第1から第6の処理に関して【0008】に「第1の処理手段は、会議での画像と音声の少なくとも1つを含む会議情報を取得してデータ領域18又はUSBメモリ10以外の記憶領域(これらを総称して所定の記憶領域という)に格納する処理をコンピュータに実行させる。例えば、第1の処理手段は、前記前記画像と音声とを関連付けてタイムスタンプ情報とともにデータ領域18又はUSBメモリ10以外の記憶領域に格納する。第2の処理手段は、データ領域18又はUSBメモリ10以外の記憶領域に格納された会議情報をコンピュータに表示するための処理をコンピュータに実行させる。」との記載があるから、第1の処理は「画像と音声とを関連付けて記憶領域に格納する処理」、第2の処理は「記憶領域に格納された会議情報をコンピュータに表示するための処理」といえる。 したがって、(USBメモリが接続された)コンピュータは、画像と音声とを関連付けて記憶領域に格納する処理及び、記憶領域に格納された会議情報をコンピュータに表示するための処理を行う処理手段といえる。

(3-2)キャプチャ部
刊行物1には、【0013】に「キャプチャ部22は、図5に示すように、オートラン機能により自動的に起動するか、又は図3の操作部105を用いてユーザが起動を指示することで起動する。キャプチャ部22は、コンピュータ100のモニタ106上の画面と、USB端子107に接続されたマイク112を介して入力した音声とをキャプチャし、これらの画像情報と音声情報を会議情報として、図1に示すUSBメモリ10のデータ領域18に格納する。データ領域18に代えて、コンピュータ100に接続される他の記憶領域を用いてもよい。・・・図5の114は、コンピュータ100に接続されたプロジェクタであって、コンピュータ100で使用されているプレゼンテーション用アプリケーションの画面(スライド)をスクリーン116に投影する。なお、図5には示していないが、コンピュータ100に図4に示すカメラを接続して会議の様子を撮影し、これを会議情報としてデータ領域18に格納することができる。キャプチャのタイミングは例えば、オペレータがプレゼンテーション中にコンピュータ100を操作したタイミングや、一定周期のタイミングでもよい。また、ユーザが特定のキー操作をした場合をキャプチャのタイミングとしてもよい。」との記載がある。
「キャプチャ部22は、コンピュータ100のモニタ106上の画面と、USB端子107に接続されたマイク112を介して入力した音声とをキャプチャし、これらの画像情報と音声情報を会議情報として、図1に示すUSBメモリ10のデータ領域18に格納する。」のであるから、キャプチャ部は、マイクを介して入力した音声と、モニタ106上の画面とを会議情報としてキャプチャしているといえる。また、キャプチャのタイミングは、「キャプチャのタイミングは例えば、オペレータがプレゼンテーション中にコンピュータ100を操作したタイミングや、一定周期のタイミングでもよい。また、ユーザが特定のキー操作をした場合をキャプチャのタイミングとしてもよい。」とあるから、特定のタイミングでキャプチャしているといえる。
さらに、キャプチャする画像として、「なお、図5には示していないが、コンピュータ100に図4に示すカメラを接続して会議の様子を撮影し、これを会議情報としてデータ領域18に格納することができる。」との記載があるから、撮像部にて撮影された画像を会議情報としてキャプチャしているといえる。
以上まとめると、刊行物1に記載されたキャプチャ部は、マイクを介して入力した音声と、モニタ106上の画面とを会議情報として特定のタイミングでキャプチャする構成であって、撮像部にて撮影された画像を会議情報としてキャプチャする構成も有するキャプチャ部であるといえる。

さらに、キャプチャ部について検討する。

上記特定のタイミングについて、刊行物1にはいくつかの実施例が開示されているが、そのうちの一つの実施例として、以下の記載がある。

「【0025】
図18は、図11に示すキャプチャタイミング管理部S32のプログラム構成を示す図である。キャプチャタイミング管理部S32は、ユーザの操作による画面の切り替わりを検出することで、自動的に画像(この場合は静止画)と音声との同期をとる。図18のプログラムは図16(A)のデータ形式に対応する。CPU101は図18のプログラムの実行を開始(ステップS51)した後、モニタ106(図3)上の画面をキャプチャし(ステップS52)、この画面を画面Aとする(ステップS53)とともに、音声のキャプチャを開始する(ステップPS54)。CPU101は一定周期で画面(画面(B)とする)をキャプチャし(ステップS55)、画面Aと画面Bとが同じであるか否かを判断する(ステップS56)。Noの場合にはステップS55に戻り、Yesの場合には画面Aを保存する(ステップS57)。そして、CPU101は画面Bを画面Aとし(ステップS58)、音声のキャプチャを停止し(ステップS59)、音声を保存する(ステップS60)。そして、画面Bに関連付けられる音声のキャプチャを開始し(ステップS61)、ステップS55に戻る。なお、図11のキャプチャ停止部S33が発行する停止命令を受けると、処理を停止する。停止命令は例えば、USBメモリ10をコンピュータ100から抜くことで、又は操作部105(図3)のマウスやキー操作に応答して、キャプチャ停止部S33が発行する。
【0026】
図19は、キャプチャタイミング管理部S32の別のプログラム構成を示す図であって、図16(B)のデータ形式に対応する。ステップS51からS58までは、図18のステップS51とS58と同じである。図19では、ステップS58の次に、CPU101がステップS62を実行し、タイムスタンプを更新する。図18の処理とは異なり、音声のキャプチャを停止しないので、複数の画像ファイルに関連して1つの音声ファイルを作成することができる。」

図18、図19を参酌しながら、以上の記載について検討する。
まず、【0026】の記載によれば、図19の構成のうち、S51からS58は、図18のステップと同じとあるから、図18のS51からS58について検討する。
【0018】の「図18は、図11に示すキャプチャタイミング管理部S32のプログラム構成を示す図である。キャプチャタイミング管理部S32は、ユーザの操作による画面の切り替わりを検出することで、自動的に画像(この場合は静止画)と音声との同期をとる。」の記載によれば、【0018】(【0019】も同様であることは明らかである。)にある構成を採用する目的は、画面の切り替わりを検出することで自動的に画像と音声との同期をとることであるといえる。
そして、ステップS52ないしS54では、まず最初の画像をキャプチャすることと、音声のキャプチャを開始すること、及び以下のステップで新たにキャプチャした画像と比較を行い画面の切り替わりを検出するために、最初の画像を保持しておく(図18、図19によれば画面Aとしてキープと記載されている。)処理を行っているといえる。
ステップS55では、画面Aがキープされた状態で、新たな画像を一定周期でキャプチャを行う。
そして、ステップS56では、画面Aと画面Bとを比較し、同じであるか異なるかの判断を行い、Noの場合はステップS55に戻り、Yesの場合は、以下のステップで上記新たにキャプチャされた画像Bを取り込み、画像Aを画像Bに置き換える処理を行っているという記載である。
ここで、上記明細書の記載のとおりであれば、Noの場合(最初にキャプチャした画像と次にキャプチャした画像が異なる場合)S56とS55を繰り返すのみで新たな画像はキャプチャされず、Yesの場合(最初にキャプチャした画像と次にキャプチャした画像が同じ場合)、同じ画像が連続してキャプチャされることとなる。
しかし、上記【0018】の構成を採用することの目的から見て、キャプチャすべき画像は、同じ画像が連続している場合ではなく、異なる画像が現れたときであることは明らかであり、上記「Noの場合」と「Yesの場合」の処理は逆であることは明白である。
このことは、【0029】の「図22は、キャプチャタイミング管理部S32の更に別のプログラム構成を示す図である。」の説明を見れば、「このプログラム構成は、特定のアプリケーション(例えばppt)が操作されていることを検出し、このアプリケーションの操作(例えば、スライドを進める)に合わせてキャプチャを行う。CPU101は図22のプログラムの動作を開始した後(ステップS81)、プロセスの検出動作を行う(ステップS82)。CPU101は、特定のプログラムが起動されていることが検出されたかどうかを判断する(ステップS83)。特定のプログラムとは、例えばプレゼンテーション用プログラムである。ステップS83の判断結果がNoならば、他のキャプチャ方式を実行する(ステップS84)か、ステップS82に戻る。Yesならば、CPU101は、特定のプログラムで特定の操作が行われたかどうかを判断する(ステップS85)。特定の操作とは、例えばスライドを進める操作である。ステップS85の判断結果がNoならば、ステップS85に戻り、Yesならば、他のキャプチャ方式の実行を終了する(ステップS86)。他のキャプチャ方式とは、例えば図18から図21に示すキャプチャ方式である。そして、CPU101は検出したアプリケーションの操作指示に基づくキャプチャを実行し(ステップS87)、実行後はステップS85に戻る。」と記載されており、当該記載によれば、「例えばスライドを進める操作」を行ったとき新たな画像をキャプチャする構成であって、スライドを進める操作を行えば、通常前の画像と異なる画像が表示されることは明らかであり、画像をキャプチャするタイミングとしては、前の画像と異なる画像が表示されるときに新たな画像をキャプチャすることが前提の発明であることは明らかである。
したがって、以下では、上記ステップS56の判断の結果として行われる処理は、「Noの場合」と「Yesの場合」が逆であるものであるとして検討する。
「Yesの場合」(先にキャプチャされた画像と次にキャプチャされた画像とが同じと判断された場合)は、ステップS55で、画面Aがキープされた状態で、新たな画像を一定周期でキャプチャを行う処理が繰り返されるのみであるといえる。
「Noの場合」(先にキャプチャされた画像と次にキャプチャされた画像とが異なると判断された場合)は、ステップS57以下の処理に移行する。
ステップS57で画面Aを保存し、ステップS58で画面Bを画面Aとすることで、次の比較の対象となる画面は、今回キャプチャされた画面Bとし、図19の実施例では、ステップS62でタイムスタンプを更新し、次の画面のキャプチャを行うため、ステップS55に戻る構成である。
以上の構成によれば、キャプチャ部は、先にキャプチャした画面と後にキャプチャした画面とを比較し、先にキャプチャした画面と後にキャプチャした画面とが異なると判断された場合、後にキャプチャされた画面を次に比較の対象となる画面とし、タイムスタンプを更新する構成を有しているといえる。

以上まとめると、キャプチャ部は、マイクを介して入力した音声と、モニタ106上の画面とを会議情報として特定のタイミングでキャプチャする構成であって、撮像部にて撮影された画像を会議情報としてキャプチャする構成も有するキャプチャ部であって、先にキャプチャした画面と後にキャプチャした画面とを比較し、先にキャプチャした画面と後にキャプチャした画面とが異なると判断された場合、後にキャプチャされた画面を次に比較の対象となる画面とし、タイムスタンプを更新する構成を有しているといえる。

(3-3)キャプチャする画像と音声との関係
刊行物1には、
【0024】に「図16は、キャプチャするデータの形式を示す図である。図16(A)は、画像と音声とを一つずつ記録する形式を示す。画像は例えばプレゼンテーション用アプリケーションの画像やカメラで撮影した画像であり、音声(より詳細には、音声ファイル)は1つの画像ファイル(一枚の画像)に関連付けられている。図16(B)は1つの音声と複数の画像ファイルとを関連付けるとともに、タイムスタンプ(CSV)を付加する形式である。カメラがコンピュータに接続されている場合には、カメラからの画像ファイルと音声ファイルとを関連付けてもよい。」
【0026】に「図19は、キャプチャタイミング管理部S32の別のプログラム構成を示す図であって、図16(B)のデータ形式に対応する。ステップS51からS58までは、図18のステップS51とS58と同じである。図19では、ステップS58の次に、CPU101がステップS62を実行し、タイムスタンプを更新する。図18の処理とは異なり、音声のキャプチャを停止しないので、複数の画像ファイルに関連して1つの音声ファイルを作成することができる。」
の記載がある。
上記記載によれば、刊行物1に記載された発明には、キャプチャするデータの形式として、図16(A)に対応する形式と、図16(B)に対応する形式とがあることが理解できる。
このうち、図16(B)に対応する形式では、
「1つの音声と複数の画像ファイルとを関連付けるとともに、タイムスタンプ(CSV)を付加する形式である。カメラがコンピュータに接続されている場合には、カメラからの画像ファイルと音声ファイルとを関連付けてもよい。」、
「ステップS58の次に、CPU101がステップS62を実行し、タイムスタンプを更新する。図18の処理とは異なり、音声のキャプチャを停止しないので、複数の画像ファイルに関連して1つの音声ファイルを作成することができる。」
のであるから、1つの音声のキャプチャを停止しないで、カメラからの複数の画像ファイルと音声とを対応付けてファイルを作成する形式であって、画像をキャプチャするときに、タイムスタンプの更新を行って当該タイムスタンプを付加する形式でファイルを作成する構成であることが記載されているといえる。

(3-4)ビューワ
刊行物1の【0014】には「ビューワ部24は、図6に示すように、オートラン機能により自動的に起動するか、又は図3の操作部105を用いてユーザが起動を指示することで起動する。ビューワ部24は、データ領域18に保存された会議情報をデータ領域18から読み出して、コンピュータ100のモニタ106上に表示する。図6の例では、画像情報とこれに関連付けられた音声情報のサムネイルがモニタ106上に表示されており、モニタ106上のスタートアイコン108及びストップアイコン112をクリックすることで、再生及び停止更にはサムネイルチャプタごとの再生が行える。」
【0030】には「次に、図2に示すビューワ部24を説明する。図23は、ビューワ部24の機能を模式的に説明するための図である。ビューワ部24のプログラムをCPU101が実行することで、静止画と音声をUSBメモリ10のデータ領域から読み込んでモニタ106上に表示する機能(図23(A))と、静止画と音声を同様に読み込んでコンテンツ(例えばmacromedia社Flashなど)を作成して表示する機能(図23(B))が提供される。」の記載がある。

以上の記載によれば、「ビューワ部24は、データ領域18に保存された会議情報(静止画と音声)をデータ領域18から読み出して、コンピュータ100のモニタ106上に表示する。」とあるから、刊行物1に記載された発明は、データ領域18に保存された会議情報(静止画と音声)をデータ領域18から読み出して、コンピュータ100のモニタ106上に表示するビューワ部を有しているといえる。

(3-5)カメラ
刊行物1の
【0012】の「PC性能・使用状況検出部20は、コンピュータ100に接続しているデバイスの情報(図4の例ではカメラ)及び付帯しているデバイスの情報を検出する機能、」
【0013】の「図5には示していないが、コンピュータ100に図4に示すカメラを接続して会議の様子を撮影し、これを会議情報としてデータ領域18に格納することができる」
【0020】の「例えば、カメラがコンピュータ100に接続されていることがPC性能・使用状況検出部20により検出されると、カメラからの画像もキャプチャして会議情報としてUSBメモリ10に取り込むことができる。」
等の記載から見て、刊行物1のコンピュータには、カメラが接続され、接続されたカメラで会議の様子を撮影し、これを会議情報としてデータ領域18に格納する構成が開示されているといえる。
したがって、刊行物1に記載された発明は、コンピュータに接続されたカメラによって会議の様子を撮影し、これを会議情報としてデータ領域18に格納する構成が開示されているといえる。

(3-6)まとめ
以上、(3-1)ないし(3-5)の記載によれば、刊行物1には、以下の発明(以下、刊行物1発明という。)が記載されているといえる。

(USBメモリが接続された)コンピュータは、画像と音声とを関連付けて記憶領域に格納する処理及び、記憶領域に格納された会議情報をコンピュータに表示するための処理を行う処理手段であって、
キャプチャ部は、マイクを介して入力した音声と、モニタ106上の画面とを会議情報として特定のタイミングでキャプチャする構成であって、撮像部にて撮影された画像を会議情報としてキャプチャする構成も有するキャプチャ部であって、先にキャプチャした画面と後にキャプチャした画面とを比較し、先にキャプチャした画面と後にキャプチャした画面とが異なると判断された場合、後にキャプチャされた画面を次に比較の対象となる画面とし、タイムスタンプを更新する構成を有し、
1つの音声のキャプチャを停止しないで、カメラからの複数の画像ファイルと音声とを対応付けてファイルを作成する形式であって、画像をキャプチャするときに、タイムスタンプの更新を行って当該タイムスタンプを付加する形式でファイルを作成し、
データ領域18に保存された会議情報(静止画と音声)をデータ領域18から読み出して、コンピュータ100のモニタ106上に表示するビューワ部を有し、
コンピュータに接続されたカメラによって会議の様子を撮影し、これを会議情報としてデータ領域18に格納する構成を有する、
コンピュータ。

4.対比
本願発明と刊行物1発明とを対比する。
(4-1)「音声録音機能及び録音再生機能を有した端末装置であって」
本願発明の「端末」は本願明細書の【0002】によれば「従来、光源や透過型液晶パネルなどを使用して画像を光変換してスクリーン上に投影するプロジェクタ装置をパーソナルコンピュータ(PC)や携帯電話などの端末装置に接続し、各種の資料(画像)をスクリーン上に投影させてプレゼンテーションを行う場合」とあるように、プロジェクタ装置に接続される携帯電話やパーソナルコンピュータを総称して「端末」としている。
刊行物1発明の(USBメモリが接続された)コンピュータ100は、画像と音声とを関連付けて記憶領域に格納する処理及び、記憶領域に格納された会議情報をコンピュータに表示するための処理を行う処理手段であるから、音声録音機能、録音再生機能を有しているといえ、また、刊行物1の図(例えば、図4、図5、図6等)を参酌すると、刊行物1発明のコンピュータは、ノートパソコンのようなものを想定しており、ノートパソコンは、通常、例えば、サーバのような利用をするものではなく、端末と称してもよいといえる。
このことは、刊行物1の【0024】に「この処理は、USBメモリ10が挿入されたコンピュータ100で行ってもよいし、サーバ30(図2)で行ってもよい。サーバは1つの音声ファイルと複数の画像ファイルとを受け取り、音声ファイルを分割する。」とあるから、刊行物1発明のコンピュータ100はサーバ30に対して端末といえるものである。
以上のことから、刊行物1発明の(USBメモリが接続された)コンピュータは、「音声録音機能及び録音再生機能を有した端末装置」であるといえる。

(4-2)「前記音声録音機能による録音中にあって被投影体上に投影される投影画像が特定された際に、そのときの投影画像を撮像部に撮影させてキャプチャする画像キャプチャ手段と、
・・・・前記画像キャプチャ手段は、前記撮影手段によって撮影された画像を認識し、この画像認識の結果、その内容が変化したことを検出した時点を前記投影画像が特定された際としてそのときの投影画像をキャプチャする」
刊行物1発明のキャプチャ部は、「キャプチャ部は、マイクを介して入力した音声と、モニタ106上の画面とを会議情報として特定のタイミングでキャプチャする構成であって、撮像部にて撮影された画像を会議情報としてキャプチャする構成も有するキャプチャ部であって、先にキャプチャした画面と後にキャプチャした画面とを比較し、先にキャプチャした画面と後にキャプチャした画面とが異なると判断された場合、後にキャプチャされた画面を次に比較の対象となる画面とし、タイムスタンプを更新する構成を有し」ている。
刊行物1発明のキャプチャ部は、「マイクを介して入力した音声と、モニタ106上の画面とを会議情報として特定のタイミングでキャプチャする構成であって、撮像部にて撮影された画像を会議情報としてキャプチャする構成も有するキャプチャ部」であるから、音声録音機能による録音中にあって、撮像部に撮影させてキャプチャする画像キャプチャ手段であるといえる。
本願発明の「(撮影された画像の)認識」について発明の詳細な説明を見ると、具体的には、以下のとおりの記載があるのみである。

【0017】
撮影機能(カメラ機能)は、ホワイトボード3上に投影されている投影画像を撮影するもので、携帯電話装置1は、自己の端末(携帯電話装置)1から投影用の画像が出力されていなければ、他の携帯電話装置やプロジェクタなどの外部装置4から投影用の画像が出力されている場合であると判断して、この投影画像を撮影するようにしている。すなわち、自己の端末(自端末)1から投影用の画像が出力されていない場合には、ホワイトボード3上の投影エリアをモニタ撮影しながらその画像を認識することによって、投影エリアの内容が変化したかをチェックし、投影エリアの内容が変化したことを検出した際に、上述の外部装置4から画像が投影されている場合であると判断して、この投影画像を撮影するようにしている。

【0044】
また、キャプチャ連動の“ON”が選択されているときには(ステップS25でYES)、撮像部21を起動させてホワイトボード3上の投影エリアを撮影したモニタ画像を取り込んで(ステップS31)、このモニタ画像を認識することによって(ステップS32)、ホワイトボード3上の投影エリアの内容に変化があったかを調べる(ステップS33)。ここで、投影エリアの内容(ボード内容)に変化がなければ(ステップS33でNO)、特定音声を検出したかを調べたり(ステップS34)、自端末投影への切り替えを指示する操作が行われたかを調べたり(ステップS35)、プレゼンテーションの録音終了を指示する操作が行われたかを調べたりする(ステップS36)。
【0045】
いま、モニタ画像を認識した結果、投影エリアの内容に変化があれば(ステップS33でYES)、自端末によるプレゼンテーションの途中において外部装置4からの画像がホワイトボード3上の投影エリアに割り込みによって投影された場合であると判断して、キャプチャ連動処理に移る(ステップS37?S39)。すなわち、外部装置4からの割り込み投影時にも、最初の画像が投影される時、次の画像に切り替えられる時、投影されている画像が拡大された時(ズーム時)には、投影エリアの内容が変化するため、上述のステップS33でそのことが検出されてステップS37に移り、ホワイトボード3上の投影エリア内の投影画像を撮影し、この撮影画像をキャプチャして、キャプチャ画像記憶部M3に画像ファイルとして保存したのち、このキャプチャ画像に対応付けてそのキャプチャ時の録音位置をタイムスタンプとして保存する(ステップS38)。

すなわち、本願発明の「認識」とは、「投影エリアの内容が変化したかをチェック」、「ホワイトボード3上の投影エリアの内容に変化があったかを調べる」ための処理であるといえ、この点刊行物1発明においても「先にキャプチャした画面と後にキャプチャした画面とを比較し、先にキャプチャした画面と後にキャプチャした画面とが異なると判断」し「後にキャプチャされた画面を次に比較の対象となる画面とし、タイムスタンプを更新する」のであるから、撮像された画像の変化をチェックしているといえ「前記画像キャプチャ手段は、前記撮影手段によって撮影された画像を認識し、この画像認識の結果、その内容が変化したことを検出した時点を前記画像が特定された際としてそのときの画像をキャプチャする」構成を有しているといえる。
以上まとめると、刊行物1発明キャプチャ部は、
「前記音声録音機能による録音中にあって画像が特定された際に、そのときの画像を撮像部に撮影させてキャプチャする画像キャプチャ手段と、
・・・・前記画像キャプチャ手段は、前記撮影手段によって撮影された画像を認識し、この画像認識の結果、その内容が変化したことを検出した時点を前記画像が特定された際としてそのときの画像をキャプチャする」
点で、本願発明のキャプチャ手段と相違がない。
もっとも、本願発明のキャプチャする画像は「被投影体上に投影される投影画像」であるのに対し、刊行物1発明のキャプチャ部がキャプチャする画像は、上記特定がなされていない点で相違する。

(4-3)「この画像キャプチャ手段によるキャプチャ画像を記憶管理すると共に、このキャプチャ画像に対応付けて当該キャプチャ時の録音位置を記憶管理する記憶手段」
刊行物1発明では、「1つの音声のキャプチャを停止しないで、カメラからの複数の画像ファイルと音声とを対応付けてファイルを作成する形式であって、画像をキャプチャするときに、タイムスタンプの更新を行って当該タイムスタンプを付加する形式でファイルを作成し」ている。
上記刊行物1発明において、作成したファイルは記憶し、管理することは明らかである。そして、「カメラからの複数の画像ファイルと音声とを対応付けてファイルを作成する形式であって、画像をキャプチャするときに、タイムスタンプの更新を行って当該タイムスタンプを付加する」とは、画像をキャプチャしたときの録音位置をタイムスタンプによって管理していることであるといえるから、刊行物1発明は、「この画像キャプチャ手段によるキャプチャ画像を記憶管理すると共に、このキャプチャ画像に対応付けて当該キャプチャ時の録音位置を記憶管理する記憶手段」を有しているといえる。

(4-4)「前記録音再生機能による録音内容の再生時に、現在の再生位置と前記画像キャプチャ時の録音位置とを比較する比較手段と、
この比較手段による再生位置と録音位置との比較結果に応じて、当該録音位置に対応付けて記憶管理されているキャプチャ画像を前記記憶手段から読み出して対応する前記録音内容の再生と共に出力させる出力制御手段と」
刊行物1発明は、「データ領域18に保存された会議情報(静止画と音声)をデータ領域18から読み出して、コンピュータ100のモニタ106上に表示するビューワ部を有し」ている。
しかし、上記ビューワ部にてどのような表示を行っているかについて特定をしていないから、本願発明の上記「比較手段」、「出力制御手段」を有しているといえない。

(4-5)「外部装置によって前記被投影体上に投影されている投影画像を撮影する撮影手段」
刊行物1発明は「コンピュータに接続されたカメラによって会議の様子を撮影し、これを会議情報としてデータ領域18に格納する構成を有」している。
上記コンピュータに接続されたカメラは、コンピュータからみて外部装置といえるから、刊行物1発明は「外部装置によって画像を撮影する撮影手段」を有しているといえる。
もっとも本願発明の撮影手段は「前記被投影体上に投影されている投影」画像を撮影するのに対し、刊行物1発明のカメラが撮影するのは会議の様子である点で相違する。

(4-5)まとめ(一致点・相違点)
以上まとめると、本願発明と刊行物1発明とは以下の一致点で一致し相違点で相違する。

(一致点)
音声録音機能及び録音再生機能を有した端末装置であって、
前記音声録音機能による録音中にあって画像が特定された際に、そのときの画像を撮像部に撮影させてキャプチャする画像キャプチャ手段と、
この画像キャプチャ手段によるキャプチャ画像を記憶管理すると共に、このキャプチャ画像に対応付けて当該キャプチャ時の録音位置を記憶管理する記憶手段と、
外部装置によって画像を撮影する撮影手段と、
を備え、
前記画像キャプチャ手段は、前記撮影手段によって撮影された画像を認識し、この画像認識の結果、その内容が変化したことを検出した時点を前記画像が特定された際としてそのときの画像をキャプチャする、
ことを特徴とする端末装置。

(相違点)
相違点1
本願発明のキャプチャする画像は「被投影体上に投影される投影画像」であるのに対し、刊行物1発明のキャプチャ部がキャプチャする画像は、上記特定がなされていない点。

相違点2
刊行物1発明は、「前記録音再生機能による録音内容の再生時に、現在の再生位置と前記画像キャプチャ時の録音位置とを比較する比較手段と、
この比較手段による再生位置と録音位置との比較結果に応じて、当該録音位置に対応付けて記憶管理されているキャプチャ画像を前記記憶手段から読み出して対応する前記録音内容の再生と共に出力させる出力制御手段と」を有していない点。

5.判断
上記相違点について検討する。
(5-1)相違点1について
刊行物1の記載を見ても、カメラが撮像する画像について格別特定する記載はなく、例えば、
【0002】に「従来から、カメラやマイクを用いて会議の画像や音声などの会議情報を取得してメモリに格納し」、
【0013】に「図5には示していないが、コンピュータ100に図4に示すカメラを接続して会議の様子を撮影し、これを会議情報としてデータ領域18に格納することができる。」
等の記載があるのみである。
しかし、刊行物1発明は、前提として、会議において「コンピュータ100に接続されたプロジェクタであって、コンピュータ100で使用されているプレゼンテーション用アプリケーションの画面(スライド)をスクリーン116に投影する。」構成を有するものであることからみて、上記「プレゼンテーション用アプリケーションの画面(スライド)をスクリーン116に投影」している状態も、上記にあるような「会議の様子」といえることは明らかであり、会議の様子を撮影する刊行物1発明において、その様子の一部である「プレゼンテーション用アプリケーションの画面(スライド)をスクリーン116に投影している状態」も当然撮影しようとすることは、普通に想起し得たことであるといえる。
そして、上記「プレゼンテーション用アプリケーションの画面(スライド)をスクリーン116に投影している状態」をカメラで撮影することは、上記相違点1のカメラが撮影しキャプチャする画像を「被投影体上に投影される投影画像」とすることに相当する構成であるといえるから、刊行物1発明を見た当業者が、カメラで撮影しキャプチャする画像を「被投影体上に投影される投影画像」とすることは、容易になしえたことであるといえる。
したがって、上記相違点1に係る構成は、刊行物1発明から当業者が容易になしえたことである。

(5-2)相違点2について
刊行物1発明において、ビューワ部が具体的にどのような表示を行うか格別特定はされていない。
しかし、刊行物1発明の端末装置(コンピュータ)が作成するファイルは、「1つの音声のキャプチャを停止しないで、カメラからの複数の画像ファイルと音声とを対応付けてファイルを作成する形式であって、画像をキャプチャするときに、タイムスタンプの更新を行って当該タイムスタンプを付加する形式でファイルを作成し」の構成であることは、上記第3 3.(3-3)で検討したとおりである。
すなわち、ファイルは、音声ファイルと画像ファイルとがあり、上記音声ファイルと画像ファイルとは対応付けがなされており、その対応付けは、画像をキャプチャするときにタイムスタンプを更新することで画像ファイルと音声ファイルとが対応付けられているものと解することができる。
上記のように対応付けられたファイルを再生するには、音声ファイルを再生しながら、音声ファイルの現在の再生位置と、上記タイムスタンプ(画像をキャプチャしたときの録音位置)とを比較し、この比較結果に応じて、録音位置に対応付けられて記憶管理されているキャプチャ画像を記憶手段から読み出して音声と同時に画像を出力することは、当業者が普通に行うことであり、上記刊行物1発明のビューワ部が、上記相違点2の構成を有することは当業者であれば普通に想起し得たことである。

なお、本願発明の「認識」は、上記のとおりどのような処理を行うか格別特定されていないから、投影エリアの内容が変化したかチェックするための処理であって、刊行物1発明と相違がないとしたが、通常(投影エリアの内容が変化したかチェックするため画像の)認識を行うといえば、撮影した画像から、特徴パラメータを抽出し、先の画像と後の画像とで、上記特徴パラメータが変化しているか比較することともいえるが、先に撮影した画像と後に撮影した画像とが異なるか検出するときに、上記特徴パラメータを比較することで画像の変化を検出することは、きわめて普通の構成であるから、本願発明の認識が、上記特徴パラメータを抽出し比較することであるとしても、刊行物1発明において、画像の比較のために特徴パラメータを抽出するようにすることは、当業者が容易になしえたことである。

6.効果
以上のように、上記相違点は当業者が容易に想到し得たものと認められ、本願発明全体としてみても格別のものはなく、その作用効果も、上記構成の採用に伴って当然に予測される程度のものにすぎず、格別顕著なものがあるとは認められない。

第4 むすび
以上、本件出願の請求項1に係る発明は、刊行物1に記載された発明に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。
したがって、残る請求項2ないし請求項5に係る発明について検討するまでもなく、本件出願は拒絶をすべきものである。
よって、結論のとおり審決する。
 
審理終結日 2014-02-24 
結審通知日 2014-02-25 
審決日 2014-03-10 
出願番号 特願2009-103829(P2009-103829)
審決分類 P 1 8・ 121- Z (G06T)
最終処分 不成立  
前審関与審査官 岡本 俊威  
特許庁審判長 渡邊 聡
特許庁審判官 千葉 輝久
松尾 淳一
発明の名称 端末装置及びプログラム  
代理人 鹿嶋 英實  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ