• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) G06F
管理番号 1299016
審判番号 不服2013-8954  
総通号数 185 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2015-05-29 
種別 拒絶査定不服の審決 
審判請求日 2013-05-15 
確定日 2015-03-25 
事件の表示 特願2010-500828「遠隔制御装置およびその制御方法」拒絶査定不服審判事件〔平成20年10月 9日国際公開、WO2008/120890、平成22年 7月15日国内公表、特表2010-524056〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 1.手続の経緯
本願は、2008年(平成20年)3月25日(優先権主張2007年(平成19年)3月30日アメリカ合衆国、2007年(平成19年)10月23日大韓民国)を国際出願日とする出願であって、平成25年1月9日付けで拒絶査定がなされ、これを不服として平成25年5月15日に本件審判請求がなされると同時に同日付で手続補正がなされ、その後、当審により平成26年5月29日付けで拒絶理由が通知され、平成26年9月3日に意見書が提出されたものである。

2.本願発明
本願の請求項1-12に係る発明は、平成25年5月15日付けの手続補正により補正された特許請求の範囲の請求項1-12の記載により特定されるものであるところ、その請求項1に係る発明(以下、「本願発明」という)は、次のとおりのものである。

「ユーザインターフェース(User Interface)をマルチメディアデータフォーマットでエンコード(Encoding)するエンコーダと、
前記エンコードされたユーザインターフェースをマルチメディアストリーミング方式でユーザインターフェース出力部(User Interface output module)を備える遠隔のクライアントに伝送するストリーミングサーバと、
前記遠隔クライアントの性能情報(capability information)を含むデバイスプロファイル(device profile)を受信し、前記遠隔クライアントの前記性能情報に基づきユーザインターフェース情報を生成するデバイスプロファイルハンドラと、を含み、
前記ユーザインターフェースは前記マルチメディアデータ形式に含まれた場面記述情報(scene description information)に基づいたものであり、
前記デバイスプロファイルハンドラは前記受信されたデバイスプロファイルに基づき性能マッチング(information matching)を行い、遠隔クライアントのユーザインターフェース出力部の性能に適したユーザインターフェース情報を検索し、
前記ストリーミングサーバは前記エンコードされたユーザインターフェースを通してユーザ命令をアップストリーム方式によって受信し、前記受信されたユーザ命令に応じてアプリケーションを制御するユーザインターフェースサーバ。」

3.刊行物に記載された発明
(1)刊行物1の記載事項
当審により通知した拒絶の理由で引用された本願の出願前に頒布された刊行物である国際公開第2006/074110号(以下、「刊行物1」という)には、図面とともに次の事項が記載されている。なお、訳文については、刊行物1に係る国際出願の日本国内段階における公表特許公報である特表2008-527851号公報を参照した。訳文における【0019】などの番号は該公報で付されたものである。

「DETAILED DESCRIPTION
In general terms, the various embodiments of the present invention are directed to generating a rich UI on a remote device. The term UI is used herein to refer to any type of interface provided by a computer program to interact with a user. The computer program may provide, for example, menus, icons, and links for selection by a user. The computer program may also be a browser program providing a web page with hyperlinks and other user selectable fields. The computer program may further take the form of a computer game providing different game objects within a computer game scene for manipulation by the user.
Regardless of the type of UI, the UI according to these various embodiments provides a full motion, full-color, dynamic interface with complex visuals without imposing heavy hardware requirements on the CE device. Instead, the hardware requirements are placed on another computer device that is designated as a media server. The media server generates the complex UI, encodes the UI into one or more compressed video frames, and transmits the compressed video frames to the CE device. Thus, the CE device may be kept relatively simple, minimizing the costs in manufacturing the CE device.
FIG. 1 is a block diagram of a system for providing a rich remote UI on one or more CE devices according to one embodiment of the invention. The system includes a media server 100 coupled to one or more client CE devices 102 over a data communications network 108. According to one embodiment of the invention, the data communications network 108 is a local area network, a local wide area network, or a wireless local area network. The media server 100 may also be coupled to a public data communications network 110 such as, for example, the Internet, for connecting the CE devices 102 to various online service providers 112 and web servers 116.
According to another embodiment of the invention, the CE device communicates with the media server 100 over a wide area wireless network or any other type of network conventional in the art, such as, for example, the Internet. The media server may be on the same or different network than the online service providers 112. In fact, the media server may be incorporated into a computer providing online services for a particular online service provider 112.
The media server 100 may take the form of any networked device having a processor and associated memory for running a media server program. As such, the media server 100 may be a personal computer, laptop computer, set-top box, digital video recorder, stereo or home theater system, broadcast tuner, video or image capture device (e.g. a camera or camcorder), multimedia mobile phone, Internet server, or the like.
The client 102 may take the form of any networked CE device configured with the necessary peripherals, hardware, and software for accepting user input data and rendering audio, video, and overlay images. Exemplary CE devices include, but are not limited to, TV monitors, DVD players, PDAs, portable media players, multimedia mobile phones, wireless monitors, game consoles, digital media adaptors, and the like.
The media server 100 provides to the clients 102 a rich UI video as well as other types of media for playing by the client 102. The media provided by the media server 100 may be media that is stored in its local media database 106 and/or media stored in other multimedia devices 104, online service providers 112, or web servers 116.
FIG. 2 is a schematic block diagram illustrating communication between the media server 100 and a particular client 102 according to one embodiment of the invention. In the illustrated embodiment, the media server 100 exchanges various types of media data and control information 204 with the client 102, such as, for example, video, music, pictures, image overlays, and the like. In the case of video, it is typically sent to the client 102 in a compressed format. Accordingly, client 102 includes one or more video decoders 114 that decode and uncompress compressed video received from the media server 100. The media server 100 also generates a graphical UI image, transforms the UI image into a compressed video format, and transmits the video to the client 102 as a UI video stream 200.
The UI provided to a CE device often uses more motion, overlays, background images, and/or special effects than traditional computer-type UIs. An example of a UI that may be provided by a CE device is a DVD menu. Due to the enhanced visuals displayed on a CE device, traditional compression mechanisms used for compressing computer-type UIs are not adequate for compressing UIs provided to the CE device. However, traditional video compression mechanisms used for compressing motion video, such as those utilized by video decoders 114, are also suited for compressing UIs provided to the CE device. Accordingly, such video compression mechanisms are utilized for compressing UIs provided to the CE device and video decoders 114 are used to decode and uncompress the video encoded UI images. Such video compression mechanisms include, for example, H.264, MPEG(including MPEG-I, MPEG-2, MPEG-4), and other specialized implementations of MPEG, such as, for example, DivX.
DivX is a video codec which is based on the MPEG-4 compression format. DivX compresses video from virtually any source to a size that is transportable over the Internet without significantly reducing the original video's visual quality. The various versions of DivX includes DivX 3.xx, DivX 4.xx, DivX 5.xx, and DivX 6.xx.
The user of the client CE device 102 receives the UI video compressed using any of the above video compression mechanisms, and generates UI events 202 in response. The UI events 202 are transmitted to the media server 100 for processing and interpreting by the server instead of the client itself. The offloading of the processing requirements to the server instead of maintaining it in the client allows for a thin client without compromising the type of user interface provided to the end user.
Exemplary UI events are keypress selections made on a remote controller in response to a displayed UI menu. The keypress data is transmitted to the media server 100 as a UI event, and in response, the media server 100 interprets the keypress data and updates and retransmits a UI frame to the client to reflect the keypress selection.
According to one embodiment of the invention, the UI events 202 are cryptographically processed utilizing any one of various encryption and/or authentication mechanisms known in the art. Such cryptographic processing helps prevent unauthorized CE devices from receiving media and other related information and services from the media server 100.
According to one embodiment of the invention, separate media transfer connections are established between the media server 100 and client 102 for the transfer of the UI stream 200, the receipt of the UI events 202, and for engaging in other types of media transport and control 204. An improved media transfer protocol, such as, for example, the improved media transfer protocol described in the U.S. patent application entitled "Improved Media Transfer Protocol," may be used to exchange data over the established media transfer connections. According to this improved media transfer protocol, the UI stream 200 is transmitted over a video connection, and the UI events 202 over a control connection. An audio connection, image overlay connection, and out-of-band connection may also be separately established for engaging in the other types of media transport and control 204, as is described in further detail in the application entitled "Improved Media Transfer Protocol." For example, the out- of-band channel may be used to exchange data for re-synchronizing the media position of the server in response to trick play manipulations such as, for example, fast forward, rewind, pause, and jump manipulations, by a user of the client CE device. The separate audio and overlay channels may be respectively used for transmitting audio and image overlay data from the server 100 to the client 102.
The use of the separate media transfer channels to transmit different types of media allows the media to be transmitted according to their individual data transfer rates. Furthermore, the improved media transfer protocol provides for a streaming mode which allows the client to render each type of media immediately upon receipt, without dealing with fine synchronization issues. Thus, the UI video may be displayed along with background music and image overlay data without requiring synchronization of such data with the UI video.
Although it is contemplated that the UI video stream 200 will be transmitted over a dedicated video transfer channel via a video transfer channel interface, the UI events 202 over a dedicated control channel via a dedicated control channel interface, and the other types of media over their dedicated media transfer channels via their respective interfaces, a person of skill in the art should recognize that the UI video stream may be interleaved with other types of media data, such as, for example, audio and/or overlay data, over a single data transfer channel.
FIG. 3 is a more detailed block diagram of the media server 100 according to one embodiment of the invention. The media server 100 includes a media server module 300 in communication with a network transport module 302 and the media database 106. The media server module 300 may interface with the network transport module 302 over an application program interface (API).
The media server module 300 includes a main processing module 306 coupled to a graphics processing unit (GPU) 308, and a frame buffer 310. The main processing module 306 further includes a network interface 328 for communicating with the Web servers 116 and online service providers 112 over the public data communications network 110.
The main processing module 306, receives UI events and other control information 312, processes/interprets the information, and generates appropriate commands for the network transport module to transfer appropriate media to the client 102.
If the media to be transferred is a UI, the main processing module 306 invokes the GPU 308 to generate a graphical image of the UI. The GPU takes conventional steps in generating the graphical image, such as, for example, loading the necessary textures, making the necessary transformations, rasterizing, and the like. The generated graphical image is then stored in a frame buffer 310 until transferred to the network transport module 302.
According to one embodiment of the invention, the graphical image may be retrieved from a local or remote source. For example, if the UI takes the form of a web page, the particular web page that is to be displayed is retrieved from the web server 116 via the network interface 328.
The network transport module 302 may be implemented via any mechanism conventional in the art, such as, for example, as a software module executed by the main processing module 306. The network transport module includes encoding capabilities provided by one or more encoders 330, such as, for example, a video encoder, for generating appropriate media transfer objects to transfer the media received from the media server module 300. Li this regard, a UI transfer object 314 is generated to transmit a UI and associated media to the client 102 in an UI mode. Other media transfer object(s) 316 may also be generated to transmit different types of media in a.non-UI mode.
The network transport module generates the appropriate media transfer object in response to a command 318 transmitted by the main processing module 306. According to one embodiment of the invention, the command 318 includes a media type and a path to the media that is to be transferred. The path to the media may be identified by a uniform resource identifier (URI).
The network transport module 302 creates the appropriate media transfer object in response to the received command 318, such as, for example, the UI transfer object 314. Media data is then sent to the generated media transfer object using appropriate API commands. For example, a UI frame stored in the frame buffer 310 may be sent to the UI transfer object 314 via a "send UI frame" command 320. Other media data 322 may also be sent to the generated transfer object via their appropriate API commands. For example, background music and overlay data may be sent to the UI transfer object 314 for transmitting to the client with the UI video stream. According to one embodiment of the invention, the UI video and other types of media transmitted with the UI video are each transmitted via a separate media transfer channel in an asynchronous streaming mode.
The generated transfer block 314 or 316 receives the media data from the media server module 300 and generates appropriate media data packets in response. In doing so, the media transfer block generates and attaches the appropriate headers to the media data packets. The packets are then transmitted to the client over one or more data transfer channels 324,326.
FIG. 4 is a more detailed block diagram of the client 102 receiving the UI video and other types of media data packets from the media server 100 according to one embodiment of the invention. The client 102 includes a client module 400 configured to receive the UI video stream 200 and the other types of media data and control information 204 from the media server 100. The client module 400 may be implemented via any mechanism conventional in the art, such as, for example, as a software module executed by a microprocessor unit hosted by the client 102.
The client module 400 forwards the received packets to one or more data buffers 408. The one or more data buffers 408 are emptied at a rate in which a media rending module 410 renders the data stored in the buffers to an output device 414. If a packet is a stream packet, the data is decoded and uncompressed by the video decoder 114 and rendered by the media rendering module as soon as its rendering is possible. If a packet is a time-stamped packet, the data is rendered after the passage of the time specified in the timestamp, as is measured by a timer 402 coupled to the client module 400.
User input selections are provided to the client 102 via a user input device 412 coupled to the client over wired or wireless mechanisms. According to one embodiment of the invention, the input device includes keys (also referred to as buttons) which may be manipulated by a user to invoke particular functionality associated with the keys. The input device may be a remote controller or another input device conventional in the art, such as, for example, a mouse, joystick, sensor, or voice input device.
According to one embodiment of the invention, user input selections are packaged as UI event packets 202 and transferred to the server 100 over a separate control channel for processing by the server. The user input selections may be keypresses for selecting a particular menu item in a menu page, moving an object within a computer game scene, selecting a particular hyperlink on a web page, or the like.
In a typical scenario, a user obtains a client CE device to view different types of media files stored in the media server 100 and in other multimedia devices 104 connected to the network 108. The CE device may further be used to play computer games, browse web pages, and the like. According to one embodiment, included with the CE device is a media server program that the user may install in a computer that he or she would like to designate as the media server 100. Alternatively, the media server program may be downloaded from a remote server or obtained using any other conventional mechanism known in the art.」(第4頁第19行-第10頁第18行)
(訳)
「【発明を実施するための最良の形態】
【0019】
大雑把に言って、本発明の様々な実施態様は、リモートデバイスにおいてリッチUIを生成することに向けられている。UIという用語は、ここでは、ユーザと対話するためにコンピュータプログラムによって提供される、任意のタイプのインターフェースを言うために用いられる。コンピュータプログラムは、例えば、ユーザによる選択用のメニュー、アイコン及びリンクを提供してもよい。またコンピュータプログラムは、ハイパーリンク及び他のユーザ選択領域を備えたウェブページを提供するブラウザプログラムであってもよい。さらに、コンピュータプログラムは、ユーザによる操作用に、コンピュータゲームシーン内の様々なゲームオブジェクトを提供するコンピュータゲームの形式をとっていてもよい。
【0020】
UIのタイプにかかわらず、これら様々な実施態様によるUIは、CEデバイスに重いハードウェアの要件を課すことなく、フルモーション、フルカラー、複雑なビジュアルを備えたダイナミックインターフェースを提供する。その代わりに、ハードウェアの要件は、メディアサーバと呼ばれる別のコンピュータデバイスに割り振られる。メディアサーバは、複雑なUIを生成し、そのUIを1以上の圧縮されたビデオフレームに圧縮し、その圧縮されたビデオフレームをCEデバイスに送信する。そのため、CEデバイスは、比較的シンプルなままであり、CEデバイスの製造コストを最小化する。
【0021】
図1は、本発明の一実施態様による、1以上のCEデバイスにリッチなリモートUIを提供するシステムのブロック図である。そのシステムは、データ通信ネットワーク108を通じて1以上のクライアントCEデバイス102と接続されたメディアサーバ100を有する。本発明の一実施態様によれば、データ通信ネットワーク108は、ローカルエリアネットワーク、ローカルワイドエリアネットワーク若しくは無線ローカルエリアネットワークである。また、メディアサーバ100は、CEデバイス102を様々なオンラインサービスプロバイダ112及びウェブサーバ116と接続するために、公衆データ通信ネットワーク110、例えば、インターネットのようなネットワークと接続されていてもよい。
【0022】
本発明の他の実施態様によれば、CEデバイスは、ワイドエリア無線ネットワーク又は例えばインターネットのような、本技術で利用できる他のタイプのネットワークを通じてメディアサーバ100と通信する。メディアサーバは、オンラインサービスプロバイダ112と異なるネットワーク上、または、むしろ同じネットワーク上に置かれていてもよい。実際、メディアサーバは特定のオンラインサービスプロバイダ112についてのオンラインサービスを提供するコンピュータに組み込まれていてもよい。
【0023】
メディアサーバ100は、メディアサーバプログラムを実行するプロセッサ及び関連するメモリを有する、他の形式のネットワークデバイスであってもよい。そのようなメディアサーバ100は、パーソナルコンピュータ、ラップトップコンピュータ、セットトップボックス、デジタルビデオレコーダ、ステレオ若しくはホームシアターシステム、放送チューナー、ビデオ若しくはイメージキャプチャデバイス(例、カメラ、カムコーダ)、マルチメディア携帯電話、インターネットサーバなどとすることができる。
【0024】
クライアント102は、ユーザ入力データを受け入れ、オーディオ、ビデオ及びオーバレイイメージをレンダリングするために、必要な周辺機器、ハードウェア及びソフトウェアを備えて構成されたネットワークCEデバイスの形式をとることができる。CEデバイスの例には、TVモニタ、DVDプレーヤ、PDA、ポータブルメディアプレーヤ、マルチメディア携帯電話、ワイヤレスモニタ、ゲームコンソール、デジタルメディアアダプタなどが含まれる。しかし、これらに限定されるわけではない。
【0025】
メディアサーバ100は、クライアント102によって再生されるリッチUIビデオ及び他のタイプのメディアをクライアント102に提供する。メディアサーバ100によって提供されるメディアは、ローカルメディアデータベース106に保存されたメディア及び/又は他のマルチメディアデバイス104、オンラインサービスプロバイダ112若しくはウェブサーバ116に保存されたメディアであってもよい。
【0026】
図2は、本発明の一実施態様による、メディアサーバ100と特定のクライアント102間の通信を示す概略ブロック図である。図示された実施態様では、メディアサーバ100は、様々なタイプのメディアデータ、例えばビデオ、ミュージック、写真、イメージオーバレイなどと、コントロール情報204をクライアント102と交換する。ビデオの場合、代表的にそれは圧縮された形式でクライアント102へ送信される。そこで、クライアント102は、メディアサーバ100から受信した圧縮されたビデオを解凍し、復号する1以上のビデオデコーダ114を有する。またメディアサーバ100は、グラフィカルなUIイメージを生成し、そのUIイメージを圧縮されたビデオフォーマットに変換し、そのビデオをUIビデオストリーム200としてクライアント102へ送信する。
【0027】
CEデバイスに提供されたUIは、従来のコンピュータタイプUIよりも、動き、オーバレイ、背景イメージ及び/又は特殊効果に優れたものを使用することも多い。CEデバイスによって提供され得るUIの一例は、DVDのメニューである。CEデバイスに表示される向上されたビジュアルのために、コンピュータタイプのUIを圧縮するために使用される従来の圧縮メカニズムは、CEデバイスに提供されるUIの圧縮には適さない。しかしながら、ビデオデコーダ114で利用されるような、モーションビデオを圧縮するために使用される圧縮メカニズムは、CEデバイスに提供されるUIを圧縮するのにも適している。そこで、そのようなビデオ圧縮メカニズムを、CEデバイスに提供されるUIを圧縮するために利用し、UIイメージを符号化したビデオを解凍し、復号するために使用する。そのようなビデオ圧縮メカニズムとして、例えば、H.264/MPEG(MPEG-1、MPEG-2、MPEG-4を含む)、及びDivXのようなMPEGの他の特定の実装形態を含む。
【0028】
DivXは、MPEG-4圧縮形式に基づいたビデオコーデックである。DivXは、実質的に如何なるソースからも、オリジナルビデオのビジュアルクオリティを大きく劣化させることなく、インターネットを通じて転送可能なサイズにビデオを圧縮する。DivXには、DivX3.xx、DivX4.xx、DivX5.xx及びDivX6.xxという様々なバージョンがある。
【0029】
クライアントデバイス102のユーザは、上記の何れかのビデオ圧縮メカニズムを用いて圧縮されたUIビデオを受信し、それに応じてUIイベント202を生成する。UIイベント202は、メディアサーバ100に送信されて、クライアント自身に代わってそのサーバにより処理され、実行される。クライアントに処理要求を保持する代わりに、サーバにその処理要求を任せることは、エンドユーザに提供されるユーザインターフェースのタイプを落とすことなく、シンクライアントを可能とする。
【0030】
UIイベントの例は、表示されたUIメニューに応答してリモートコントローラでなされたキー押下による選択である。キー押下によるデータは、UIイベントとしてメディアサーバ100に送信され、それに応答して、メディアサーバ100は、キー押下による選択に反応するために、そのキー押下によるデータを実行し、UIフレームを更新してクライアントに再度送信する。
【0031】
本発明の一実施態様によれば、UIイベント202は、本技術で公知の様々な暗号及び/又は認証メカニズムのうちの何れか一つを利用して暗号処理される。そのような暗号処理は、未認証のCEデバイスがメディア及び関連する他の情報及びメディアサーバ100からのサービスを受信することを防止するのに役立つ。
【0032】
本発明の一実施態様によれば、UIストリーム200の送信、UIイベント202の受信、及び他のタイプのメディア及びコントロール204の転送を行うために、メディアサーバ100とクライアント102の間に個別のメディア転送接続が構築される。例えば、「向上されたメディア転送プロトコル」という題の米国特許出願に記載された向上されたメディア転送プロトコルのような、向上されたメディア転送プロトコルを、構築されたメディア転送接続を通じてデータを交換するために使用してもよい。この向上されたメディア転送プロトコルによれば、UIストリーム200はビデオ接続を通じて転送され、UIイベント202はコントロール接続を通じて転送される。「向上されたメディア転送プロトコル」という題の出願にさらに詳細に記載されているように、他のタイプのメディア及びコントロール204の転送を行うために、オーディオ接続、イメージオーバレイ接続及びアウトオブバンド接続もまた別個に構築してもよい。例えば、アウトオブバンドチャンネルを、クライアントCEデバイスのユーザによる、例えば、早送り、巻き戻し、一時停止、ジャンプ操作のようなトリックプレイ操作に応答して、サーバのメディアの位置を再同期するためにデータを交換するのに使用してもよい。また、サーバ100からクライアント102へオーディオデータとイメージオーバレイデータを送信するために、オーディオチャンネルとオーバレイチャンネルをそれぞれ別個に使用してもよい。
【0033】
異なるタイプのメディアを転送するために個別のメディア転送チャンネルを使用することは、それら個々のデータ転送レートによってメディアを転送することを可能とする。さらに、向上されたメディア転送プロトコルは、詳細な同期の問題を扱うことなく、受信と同時にクライアントがそれぞれのタイプのメディアをレンダリングすることが可能なストリーミングモードを提供する。そのため、UIビデオをバックグラウンドミュージック及びイメージオーバレイデータと共に表示することができ、その際、そのようなデータとUIビデオとの同期を必要としない。
【0034】
UIビデオストリーム200を、ビデオ転送チャンネルインターフェースを介して専用ビデオ転送チャンネルを通じて送信し、UIイベント202を、専用のコントロールチャンネルインターフェースを介して専用コントロールチャンネルを通じて送信し、他のタイプのメディアをそれぞれのインターフェースを介してそれら専用のメディア転送チャンネルを通じて転送することを検討してきた。しかし、当業者は、UIビデオストリームを、単一のデータ転送チャンネルを通じて、例えば、オーディオ及び/又はオーバレイデータのような他のタイプのメディアデータにインターリーブしてもよいことを認識すべきである。
【0035】
図3は、本発明の一実施態様によるメディアサーバ100のより詳細なブロック図である。メディアサーバ100はネットワーク転送モジュール302と通信するメディアサーバモジュール300と、メディアデータベース106とを有する。メディアサーバモジュール300は、アプリケーションプログラムインターフェース(API)を通じてネットワーク転送モジュール302とインターフェースをとってもよい。
【0036】
メディアサーバモジュール300は、グラフィックプロセッサユニット(GPU)308と接続されたメインプロセッサモジュール306とフレームバッファ310とを有する。メインプロセッサモジュール306は、さらにウェブサーバ116及びオンラインサービスプロバイダ12と公衆データ通信ネットワーク110を通じて通信するネットワークインターフェース328を有する。
【0037】
メインプロセッサモジュール306は、UIイベント及び他のコントロール情報312を受信し、その情報を処理/実行して、ネットワーク転送モジュールがクライアント102へ適切なメディアを転送するための適切なコマンドを生成する。
【0038】
転送されるメディアがUIの場合、メインプロセッサモジュール306は、UIのグラフィックイメージを生成するようGPU308を起動する。GPUは、グラフィックイメージの生成における標準的なステップ、例えば、必要なテクスチャを読み込み、必要な変換、ラスタライジングなどを実行する。生成されたグラフィックイメージは、ネットワーク転送モジュール302へ転送されるまで、フレームバッファ310に保存される。
【0039】
本発明の一実施態様によれば、そのグラフィカルイメージは、ローカルまたはリモートソースから読み出される。例えば、UIがウェブページの形式をとる場合、表示される特定のウェブページがネットワークインターフェース328を介してウェブサーバ116から読み出される。
【0040】
ネットワーク転送モジュール302は、本技術において通常のメカニズム、例えば、メインプロセッサモジュール306で実行されるソフトウェアモジュールとして実装される。ネットワーク転送モジュールは、メディアサーバモジュール300から受信したメディアを転送するのに適切なメディア転送オブジェクトを生成するために、1以上のエンコーダ330、例えば、ビデオエンコーダによって提供される符号化能力を有する。このことに関して、UIモードにおいてUI及び関連するメディアをクライアント102へ送信するためにUI転送オブジェクト314が生成される。また、他のメディア転送オブジェクト316を、非UIモードにおいて異なるタイプのメディアを送信するために生成してもよい。
【0041】
ネットワーク転送モジュールは、メインプロセッサモジュール306から送信されたコマンド318に応答して適切なメディア転送オブジェクトを生成する。本発明の一実施態様によれば、コマンド318は、メディアのタイプと、転送されるメディアの経路を含む。メディアに対する経路は、統一資源識別子(URI)によって識別してもよい。
【0042】
ネットワーク転送モジュール302は、受信したコマンド318、例えば、UI転送オブジェクト318のようなコマンドに応答して、適切なメディア転送オブジェクトを生成する。そして、メディアデータは、適切なAPIコマンドを用いて生成されたメディア転送オブジェクトへ送られる。例えば、フレームバッファ310に保存されたUIフレームを、「UIフレーム送信」コマンド320を介してUI転送オブジェクト314へ送ってもよい。また、他のメディアデータ322も、適切なAPIコマンドを介して生成された転送オブジェクトへ送ることができる。例えば、バックグラウンドミュージック及びオーバレイデータを、UIビデオストリームとともにクライアントへ送信するために、UI転送オブジェクト314へ送ってもよい。本発明の一実施態様によれば、UIビデオ及びUIビデオとともに送信される他のタイプのメディアは、非同期ストリーミングモードで別個のメディア転送チャンネルを介してそれぞれ送信される。
【0043】
生成された転送ブロック314又は316は、メディアサーバモジュール300からのメディアデータを受信し、それに応じて適切なメディアデータパケットを生成する。そうすることで、メディア転送ブロックは適切なヘッダを生成し、メディアデータパケットに添付する。そしてパケットは、1以上のデータ転送チャンネル324、326を通じてクライアントへ送信される。
【0044】
図4は、本発明の一実施態様による、メディアサーバ100からUIビデオ及び他のタイプのメディアデータパケットを受信するクライアント102のより詳細なブロック図である。クライアント102は、UIビデオストリーム200、他のタイプのメディアデータ及びコントロール情報204をメディアサーバ100から受信するように構成されたクライアントモジュール400を含む。クライアントモジュール400を、従来技術の如何なるメカニズムを介して実装してもよく、例えば、クライアント102によって採用されたマイクロプロセッサユニットで実行されるソフトウェアモジュールとして実装される。
【0045】
クライアントモジュール400は、受信したパケットを1以上のデータバッファ408へ転送する。1以上のデータバッファ408は、メディアレンダリングモジュール410がそのバッファに保存されたデータを出力デバイス414へレンダリングするレートで空にされる。パケットがストリームパケットである場合、データはビデオデコーダ114によって解凍かつ復号され、そのレンダリングが可能な限り直ちにメディアレンダリングモジュールによってレンダリングされる。パケットがタイムスタンプパケットである場合、そのデータは、クライアントモジュール400に接続されたタイマ402によって計測されるように、タイムスタンプで特定された時刻の経過後にレンダリングされる。
【0046】
ユーザの選択入力は、有線または無線を通じてクライアントに接続されたユーザ入力デバイス412を介してクライアント102へ提供される。本発明の一実施態様によれば、その入力デバイスはユーザによって操作されるキー(ボタンとも呼ばれる)を有し、その操作によってそのキーと関連する特定の機能が呼び出される。その入力デバイスは、リモートコントローラ又は従来技術による他の入力デバイスであってもよく、例えば、マウス、ジョイスティック、センサ若しくは音声入力デバイスであってもよい。
【0047】
本発明の一実施態様によれば、ユーザの選択入力はUIイベントパケット202としてパッケージされ、サーバによって処理するために別個のコントロールチャンネルを通じてサーバ100へ転送される。ユーザの選択入力は、メニューページの特定のメニューアイテムを選択するキー押下、コンピュータゲームのシーン内のオブジェクトの移動、ウェブページにおけるハイパーリンクの選択などであってもよい。
【0048】
典型的なシナリオでは、ユーザは、メディアサーバ100及びネットワーク108に接続された他のマルチメディアデバイス104に保存された異なるタイプのメディアファイルを見るためにクライアントCEデバイスを取得する。さらに、そのCEデバイスを、コンピュータゲームをプレイしたり、ウェブページを見るなどに使用するかもしれない。一実施態様によれば、ユーザがメディアサーバ100として指定したいコンピュータにユーザがインストールできるメディアサーバプログラムが、CEデバイスに含まれる。あるいは、メディアサーバプログラムを、リモートサーバからダウンロードしてもよく、従来技術による他のメカニズムを用いて取得してもよい。」

(2)刊行物1発明
以上の記載及び図面の記載から、刊行物1には、サーバPC(FIG.1、FIG.2では、「Server: PC100(サーバPC100)」、明細書では「the media server100(メディアサーバ100)」と記載されている)に関する次の発明(以下、「刊行物1発明」という)が記載されていると認められる。

[刊行物1発明]
DVDのメニューを一例とするユーザインターフェース(UI)イメージを、MPEG-4などの圧縮ビデオフォーマットに変換するビデオコーデックと、
変換したビデオをUIビデオストリームとしてユーザインターフェース(UI)イメージを出力デバイスへレンダリングするクライアントへ送信するネットワーク転送モジュールと、
を含み、
クライアントデバイスで受信したUIビデオに応じてユーザが選択入力することにより生成したUIイベントを受信し、受信したUIイベントはサーバにより処理され実行されるサーバPC。

4.対比
(1)本願発明の「ユーザインターフェース(User Interface)をマルチメディアデータフォーマットでエンコード(Encoding)するエンコーダ」について

刊行物1発明は、ユーザインターフェース(UI)イメージをクライアントへ送信するサーバPC(本願発明の「ユーザインターフェースサーバ」に相当)に関するものであって、刊行物1発明の「ユーザインターフェースイメージ」、「MPEG-4」、「ビデオコーデック」は、それぞれ、本願発明の「ユーザインターフェース」、「マルチメディアデータフォーマット」、「エンコーダ」に相当するから、刊行物1発明のサーバPCは、「ユーザインターフェースをマルチメディアデータフォーマットでエンコードするエンコーダ」を含むといえる。
したがって、本願発明と刊行物1発明とは、「ユーザインターフェース(User Interface)をマルチメディアデータフォーマットでエンコード(Encoding)するエンコーダ」を含む点で一致する。

(2)本願発明の「前記エンコードされたユーザインターフェースをマルチメディアストリーミング方式でユーザインターフェース出力部(User Interface output module)を備える遠隔のクライアントに伝送するストリーミングサーバ」について

刊行物1発明のサーバPCは、「変換したビデオをUIビデオストリームとしてユーザインターフェース(UI)イメージを出力デバイスへレンダリングするクライアントへ送信するネットワーク転送モジュール」を含む。
この「変換したビデオ」は、ユーザインターフェース(UI)イメージをビデオコーデックで変換したものであるから「エンコードされたユーザインターフェース」といえる。また、「出力デバイス」は、ユーザインターフェース(UI)イメージをレンダリングするものであるから、「ユーザインターフェース出力部」といえ、さらに、「ネットワーク転送モジュール」は、ビデオをUIビデオストリームとしてクライアントへネットワークを介して送信するものであるから、「ストリーミングサーバ」ということができる。
よって、刊行物1発明のサーバPCは、「エンコードされたユーザインターフェースをマルチメディアストリーミング方式でユーザインターフェース出力部を備える遠隔のクライアントに伝送するストリーミングサーバ」を含むといえる。
したがって、本願発明と刊行物1発明は、「前記エンコードされたユーザインターフェースをマルチメディアストリーミング方式でユーザインターフェース出力部(User Interface output module)を備える遠隔のクライアントに伝送するストリーミングサーバ」を含む点で一致する。

(3)本願発明の「前記遠隔クライアントの性能情報(capability information)を含むデバイスプロファイル(device profile)を受信し、前記遠隔クライアントの前記性能情報に基づきユーザインターフェース情報を生成するデバイスプロファイルハンドラ」について

本願発明は、「前記遠隔クライアントの性能情報(capability information)を含むデバイスプロファイル(device profile)を受信し、前記遠隔クライアントの前記性能情報に基づきユーザインターフェース情報を生成するデバイスプロファイルハンドラ」を含むのに対し、刊行物1発明は、そのような構成を含まない点で両者は相違する。(相違点1の前半部)

(4)本願発明の「前記ユーザインターフェースは前記マルチメディアデータ形式に含まれた場面記述情報(scene description information)に基づいたものであり」について

本願発明では、「前記ユーザインターフェースは前記マルチメディアデータ形式に含まれた場面記述情報(scene description information)に基づいたもの」であるのに対し、刊行物1発明では、そのような特定はなされていない点で両者は相違する。(相違点2)

(5)本願発明の「前記デバイスプロファイルハンドラは前記受信されたデバイスプロファイルに基づき性能マッチング(information matching)を行い、遠隔クライアントのユーザインターフェース出力部の性能に適したユーザインターフェース情報を検索し」について

本願発明にあっては、「前記デバイスプロファイルハンドラは前記受信されたデバイスプロファイルに基づき性能マッチング(information matching)を行い、遠隔クライアントのユーザインターフェース出力部の性能に適したユーザインターフェース情報を検索」するのに対し、刊行物1発明は、そのような構成を含まない点で両者は相違する。(相違点1の後半部)

(6)本願発明の「前記ストリーミングサーバは前記エンコードされたユーザインターフェースを通してユーザ命令をアップストリーム方式によって受信し、前記受信されたユーザ命令に応じてアプリケーションを制御するユーザインターフェースサーバ」について

刊行物1発明は、「クライアントデバイスで受信したUIビデオに応じてユーザが選択入力することにより生成したUIイベントを受信し、受信したUIイベントはサーバにより処理され実行される」ものである。
「UIイベント」は、クライアントデバイスで受信したUIビデオに応じてユーザが選択入力することにより生成したものであるから、本願発明の「ユーザ命令」に相当し、本願発明でいう「前記ストリーミングサーバ」が、「前記エンコードされたユーザインターフェースを通して」「受信」したものに相当する。また、このUIイベントは、クライアントデバイスからサーバが受信したものであるから、「アップストリーム方式によって受信」したものといえる。
また、刊行物1発明において、「受信したUIイベントはサーバにより処理され実行される」ものであり、UIの一例は、DVDのメニューであるから、UIイベントがサーバにより処理され実行されるときの処理や実行は、例えば、DVDの再生などを行う、アプリケーションによる処理や実行といえる。すなわち、サーバは「受信されたユーザ命令に応じてアプリケーションを制御する」といえる。
したがって、本願発明と刊行物1発明とは、「前記ストリーミングサーバは前記エンコードされたユーザインターフェースを通してユーザ命令をアップストリーム方式によって受信し、前記受信されたユーザ命令に応じてアプリケーションを制御するユーザインターフェースサーバ」である点で一致する。

(7)一致点及び相違点
以上をまとめると、本願発明と刊行物1発明の一致点及び相違点は次のとおりである。

[一致点]
ユーザインターフェース(User Interface)をマルチメディアデータフォーマットでエンコード(Encoding)するエンコーダと、
前記エンコードされたユーザインターフェースをマルチメディアストリーミング方式でユーザインターフェース出力部(User Interface output module)を備える遠隔のクライアントに伝送するストリーミングサーバと、
を含み、
前記ストリーミングサーバは前記エンコードされたユーザインターフェースを通してユーザ命令をアップストリーム方式によって受信し、前記受信されたユーザ命令に応じてアプリケーションを制御するユーザインターフェースサーバ。

[相違点]
(相違点1)
本願発明は、「前記遠隔クライアントの性能情報(capability information)を含むデバイスプロファイル(device profile)を受信し、前記遠隔クライアントの前記性能情報に基づきユーザインターフェース情報を生成するデバイスプロファイルハンドラ」を含み、「前記デバイスプロファイルハンドラは前記受信されたデバイスプロファイルに基づき性能マッチング(information matching)を行い、遠隔クライアントのユーザインターフェース出力部の性能に適したユーザインターフェース情報を検索」するのに対し、刊行物1発明は、そのような構成を含まない点。

(相違点2)
本願発明では、「前記ユーザインターフェースは前記マルチメディアデータ形式に含まれた場面記述情報(scene description information)に基づいたもの」であるのに対し、刊行物1発明では、そのような特定はなされていない点。

5.当審の判断
(1)相違点1について
刊行物1発明は、サーバPCからクライアントにビデオストリームを送信し、クライアントの出力デバイスでレンダリングをさせるものであるから、送信されるビデオを出力デバイスの画面サイズに適合させようとすることは当業者が普通に想起し得ることであり、そのように適合させようとする動機付けはあるということができる。
一方、上記拒絶理由の通知で通知した刊行物2(特開2003-235029号公報、その記載事項については後述(*))には、映像サーバーから端末装置に映像データを配信する装置において、端末装置の画面サイズを収集し、該画面サイズに基づき映像データをエンコードして配信する映像データ選択部を備え、映像データを端末装置の画面サイズに適応させる映像サーバが記載されている。
また、上記拒絶理由の通知で通知した刊行物3(特開2005-25526号公報、その記載事項については後述(*))には、コンテンツ提供装置から利用者の端末装置にネットワークを介してコンテンツ(動画(ビデオ)を含む)を配信するシステムにおいて、PC等の表示能力の高い端末向けのコンテンツと携帯電話等の表示能力の低い端末向けのコンテンツをコンテンツ提供装置に格納し、利用者の端末より指定された端末種別に対応するコンテンツを端末装置で受信して表示・再生するシステムが記載されている。
すなわち、サーバからクライアントにビデオを送信する装置において、刊行物2には、クライアントの画面サイズを受信し、それに基づいたビデオを生成することが、刊行物3には、クライアントの表示能力にそれぞれ対応した複数のビデオを格納し、その中からクライアントの表示能力に対応したビデオを検索することが記載されているといえる。
刊行物1発明において、送信されるビデオを出力デバイスの画面サイズに適合させようとして、刊行物2に記載されたもののように、クライアントの画面サイズを受信(本願発明の「前記遠隔クライアントの性能情報(capability information)を含むデバイスプロファイル(device profile)を受信」に相当する)し、それに基づいたビデオを生成(本願発明の「前記遠隔クライアントの前記性能情報に基づきユーザインターフェース情報を生成」に相当する)し、また、そのようなビデオを生成する具体的な態様として、刊行物3に記載されたもののように、クライアントの表示能力にそれぞれ対応した複数のビデオを格納し、その中からクライアントの表示能力に対応した(マッチした)ビデオを検索(本願発明の「前記受信されたデバイスプロファイルに基づき性能マッチング(information matching)を行い、遠隔クライアントのユーザインターフェース出力部の性能に適したユーザインターフェース情報を検索」に相当する)する構成とすることは当業者が容易に想到し得ることである。
すなわち、刊行物1発明において、「前記遠隔クライアントの性能情報(capability information)を含むデバイスプロファイル(device profile)を受信し、前記遠隔クライアントの前記性能情報に基づきユーザインターフェース情報を生成するデバイスプロファイルハンドラ」を含み、「前記デバイスプロファイルハンドラは前記受信されたデバイスプロファイルに基づき性能マッチング(information matching)を行い、遠隔クライアントのユーザインターフェース出力部の性能に適したユーザインターフェース情報を検索」する構成とすることは当業者が容易に想到し得ることである。

(*)刊行物2(特開2003-235029号公報)には、以下のように記載されている。
「【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、映像を配信する映像サーバーから映像の配信を受ける端末装置および、エッジルータと端末装置とからなる映像配信システムに関するものである。
【0002】
【従来の技術】従来の映像配信システムについて、図4を用いて説明する。従来の映像配信システムは、複数のコンテンツ1-1?1-3を蓄積した映像サーバー1と、端末装置2とがネットワーク3を介して接続されている。端末装置2はネットワーク3を介して映像サーバー1が配信する映像データであるコンテンツ1-1?1-3を、自らが表示可能な画面サイズまたはユーザーが要求するサイズに加工して表示している。
【0003】
【発明が解決しようとする課題】しかしながら、上記従来技術において、映像サーバー1から配信される映像データは、端末装置2の表示能力やユーザーの要求サイズによらず同じ映像データである。このため、端末装置2側において、映像サーバー1から配信される映像データを、映像サーバー1から配信される映像データより小さい画面サイズで表示する場合、端末装置2において表示できない余分な映像データがネットワーク3上を流れることになる。このように、映像サーバー1と端末装置間2に配置されているネットワーク3に不要な負荷がかかることがある。
【0004】本発明はかかる点に鑑みてなされたものであり、映像サーバーから端末装置に、端末装置の要求する映像情報に対応する映像データを配信できるようにすることで、映像サーバーと端末装置間に配置されているネットワークの負荷を軽減させることを目的とする。」
「【0030】
【発明の実施の形態】(実施の形態1)本発明の実施の形態1にかかる映像配信システムは、映像サーバーが端末装置の要求する表示能力やユーザーの要求サイズ等の映像情報を得ることができるようにすることで、映像サーバーから端末装置に端末装置の表示能力やユーザーの要求サイズに応じた映像コンテンツが送れるようにしたものである。
【0031】本発明の実施の形態1にかかる映像配信システムについて、図1を用いて説明する。図1は、実施の形態1にかかる映像配信システムの構成図である。
【0032】図中、10で示されるものは、コンテンツプロバイダなどの映像サーバーである。映像サーバー10は、複数の映像コンテンツ21a?21cを蓄積する蓄積部11と、映像データ選択部12から構成される。映像コンテンツ21a?21bは、MPEG2/4,HDTVなどの圧縮フォーマットの映像情報であり、それぞれ異なる圧縮フォーマットになされている。映像選択部12は、送られてきた映像データ情報を元に蓄積部11から該当する映像コンテンツ21a?21cを選択する。
【0033】13で記されるものは、表示画面14および映像情報通知部15から構成される端末装置である。表示画面14は、映像サーバー10から配信された映像コンテンツ21a?21cを受信し表示する。映像情報通知部15は、表示画面14が表示可能な画面サイズやユーザーが要求している画面サイズをパケットのデータ部分に格納して映像サーバー10に配信する機能を有する。
【0034】17で記されるものは、IPスイッチング部19およびCPU20、およびWeb(公開)サーバー18から構成されるエッジルータである。
【0035】IPスイッチング部19は、映像データのルーティング機能を行う。CPU20は、映像情報通知部15から送信されてくるパケットのデータ部分を解析し、端末装置13の要求する映像情報を抽出し、Webサーバー18に通知する機能を有する。Webサーバー18は、公開サーバーであり、端末装置13の要求する映像情報を公開するようになっている。
【0036】これにより、他の端末がWebサーバー18を参照することで、端末装置13の要求する映像情報を収集できるようになっている。
【0037】また、3で示されるものは、映像サーバー10の映像コンテンツ21a?21cや端末装置13の表示画面14の画面サイズ情報などの映像情報を伝送するネットワークであり、ルータなどのネットワーク装置から構成される。
【0038】次に、実施の形態1にかかる映像配信システムの映像配信動作について説明する。
【0039】映像サーバー10が端末装置13に映像データを送信しようとした場合、まず、映像データ選択部12がHTTPプロトコルによりエッジルータ17のWebサーバー18を参照しに行く。そして、映像データ選択部12は、Webサーバー18が公開する、端末装置13の要求する映像情報を収集する。
【0040】次に、映像データ選択部12がWebサーバー18から得た端末装置13の画面サイズなどの映像情報を認識し、映像データ選択部12の内部のエンコーダーがWebサーバー18から得た映像情報に基づいて映像コンテンツ21a?21cをエンコードし端末装置13に配信する。そして、端末装置13が配信されてきた映像コンテンツ21a?21cを受信し、表示画面14に表示する。
【0041】このようにして、端末装置13は、表示画面14の画面サイズ等に応じた映像情報に適応した映像コンテンツ21a?21cを受信でき、表示画面14に表示できる。
【0042】以上説明したように実施の形態1によれば、端末装置13が、要求する映像コンテンツ21a?21cの情報をエッジルータ17に通知するための、エッジルータ宛のパケットを生成し通知する手段である映像情報通知部15を具備することで、映像サーバー10が、端末装置13が要求する映像情報をエッジルータ17から認識し、ネットワーク3に伝送する映像コンテンツ21a?21cをコントロールし配信することができる。この結果、映像サーバー10から端末装置13に、端末装置13の要求する映像情報より大きな映像コンテンツ21a?21cを送るということを防止することができる。よって、映像サーバー10と端末装置13間のネットワーク3への負荷を低減することができる。」

刊行物3(特開2005-25526号公報)には、以下のように記載されている。
「【0001】
【発明の属する技術分野】
本発明は、動画像、音楽等のコンテンツを利用者の端末装置へネットワークを介して配信する技術に関する。」
「【0015】
コンテンツ提供装置10は、動画像、音楽等の様々な項目に関するコンテンツを格納しており、それぞれのコンテンツに対応する実体識別子が指定された要求を受信して当該コンテンツを提供する。ここで、各項目に関するコンテンツは、端末装置の種別(端末種別)毎に対応した情報(適した情報)をそれぞれ含みかつ実体識別子がそれぞれ異なる複数のコンテンツからなるものとする。」
「【0020】
図2はコンテンツセット格納手段41における格納内容の一例を示すもので、ここでは項目「旅行情報」に関する2つのコンテンツ、例えばPC等の表示能力の高い端末装置向けのコンテンツ(実体識別子(URL)は「www.travel.com」)と、携帯電話等の表示能力の低い端末装置向けのコンテンツ(実体識別子(URL)は「www.travel-i.com」)とがある場合を例にとって説明する。
【0021】
即ち、コンテンツセット格納手段41には、表示能力の高い端末向けのコンテンツの実体識別子「www.travel.com」61と、そのコンテンツに適した端末種別「PC」62とが一つのレコード63として格納される。また、表示能力の低い端末装置向けのコンテンツの実体識別子「www.travel-i.com」64と、そのコンテンツに適した端末種別「携帯」65とが一つのレコード66として格納される。そして、レコード63及びレコード66は同一項目に関するコンテンツであるため、一つのコンテンツセット67としてコンテンツセットID「0001」68とともに格納される。」
「【0029】
実体識別子検索手段45は、利用者の端末装置より指定された利用者ID及び愛称タグを含むレコードを愛称タグ格納手段42から検索し、当該レコードに含まれるコンテンツセットIDを取得し、該取得したコンテンツセットIDに対応するコンテンツセットをコンテンツセット格納手段41から検索し、さらに利用者の端末装置より指定された端末種別に対応する実体識別子を前記コンテンツセット内のレコードから取得して利用者の端末装置に送信する。」
「【0047】
端末装置30は、前記実体識別子に従ってコンテンツ提供装置にアクセスし、コンテンツを受信して表示・再生する。」

(2)相違点2について
刊行物1発明では、ユーザインターフェース(UI)イメージを、MPEG-4などの圧縮ビデオフォーマット(本願発明でいう「マルチメディアデータ形式」)に変換する。
MPEG-4で用いられるシーン記述方法として、ユーザ入力によるインタラクションを含むことが可能なシーン記述方法(本願発明でいう「場面記述情報に基づいた」「ユーザインターフェース」の記述方法)は、ISO(the International Organization for Standardization)に規定されている周知の記述方法である(後述の(**)を参照)から、刊行物1発明において、ユーザインターフェース(UI)イメージを変換したMPEG-4などの圧縮ビデオフォーマットを、上記周知の場面記述情報に基づいたユーザインターフェースの記述方法とすること、すなわち、「前記ユーザインターフェースは前記マルチメディアデータ形式に含まれた場面記述情報(scene description information)に基づいたもの」とすることは当業者が容易に想到し得ることである。

(**)上記拒絶理由の通知で通知した刊行物5(特開2001-243044号公報)には、以下のように記載されている。
「【0006】ところで、ディジタルTV放送やDVD、HyperText Markup Language(以下、HTMLという。)等で記述されたインターネットのホームページ、ISO/IEC14496-1に規定されたシーン記述方式であるBinary Format for the Scene(以下、MPEG-4 BIFSという。)、ISO/IEC14772に規定されたVirtual Reality Modeling Language(以下、VRMLという。)など、ユーザ入力によるインタラクションを含むことが可能なシーン記述方法で記述されたコンテンツがある。このコンテンツのデータを、以下、シーン記述と呼ぶ。シーン記述には、そのコンテンツ中で使用するオーディオや画像、コンピュータグラフィックなどのデータも含むものとする。」

(3)まとめ
以上のとおりであるから、刊行物1発明を出発点とし、上記相違点1及び相違点2を克服して本願発明に至ることは、刊行物1発明に刊行物2、3に記載された技術及び周知技術を適用することにより当業者が容易に想到し得ることである。
よって、本願発明(請求項1に係る発明)は、刊行物1に記載された発明、刊行物2、3に記載された技術及び周知技術に基づいて当業者が容易に発明をすることができたものである。

6.むすび
以上のとおりであるから、本願の請求項1に係る発明は、特許法第29条第2項の規定により特許を受けることができない。
したがって、本願は、その余の請求項について論及するまでもなく、拒絶すべきものである。
よって、結論のとおり審決する。
 
審理終結日 2014-10-22 
結審通知日 2014-10-28 
審決日 2014-11-11 
出願番号 特願2010-500828(P2010-500828)
審決分類 P 1 8・ 121- WZ (G06F)
最終処分 不成立  
前審関与審査官 ▲高▼都 広大木村 雅也  
特許庁審判長 乾 雅浩
特許庁審判官 山田 正文
千葉 輝久
発明の名称 遠隔制御装置およびその制御方法  
代理人 大貫 進介  
代理人 伊東 忠彦  
代理人 伊東 忠重  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ