• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06F
管理番号 1382825
総通号数
発行国 JP 
公報種別 特許審決公報 
発行日 2022-04-28 
種別 拒絶査定不服の審決 
審判請求日 2020-12-16 
確定日 2022-03-29 
事件の表示 特願2018−177824「アプリケーション機能情報表示方法、装置、及び端末装置」拒絶査定不服審判事件〔令和 1年10月10日出願公開、特開2019−175418、請求項の数(16)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、平成30年9月21日(パリ条約による優先権主張 2018年3月26日 中国)の出願であって、その手続の経緯は次のとおりである。

令和元年11月25日付け:拒絶理由通知書
令和2年 3月 2日 :意見書、手続補正書の提出
令和2年 8月 7日付け:拒絶査定(原査定)
令和2年12月16日 :審判請求書、手続補正書の提出
令和3年 9月30日付け:拒絶理由(当審拒絶理由)通知書
令和4年 1月 5日 :意見書、手続補正書の提出

第2 原査定の概要
原査定(令和2年8月7日付け拒絶査定)の概要は次のとおりである。

[理由1]新規性欠如
本願請求項1、6、9、10、12ないし14、16ないし18、20及び21に係る発明は、以下の引用文献Aに記載された発明であるから、特許法第29条第1項第3号に該当し特許を受けることができない。

[理由2]進歩性欠如
本願請求項1ないし18に係る発明は、以下の引用文献AないしCに記載された発明に基いて、その発明の属する技術の分野における通常の知識を有する者(以下、「当業者」という。)が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献A:国際公開第2007/037264号
引用文献B:特開平10−074383号公報
引用文献C:特開2007−150662号公報

第3 当審拒絶理由の概要
当審拒絶理由の概要は次のとおりである。

本願請求項1ないし18に係る発明は、以下の引用文献1及び2に記載された発明に基いて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献1:国際公開第2016/003574号
引用文献2:特開2016−004375号公報

第4 本願発明
本願請求項1ないし16に係る発明(以下、それぞれ「本願発明1」ないし「本願発明16」という。)は、令和4年1月5日に提出された手続補正書に係る手続補正(以下、「本件補正」という。)により補正された特許請求の範囲の請求項1ないし16に記載された事項により特定される発明であり、このうち、本願発明1は以下のとおりの発明である。なお、下線は、本件補正により補正された箇所を示す。

「 端末装置のスクリーンに、アプリケーション機能に関連づけられたコンテンツカードを直接表示するか、又は前記コンテンツカードを直接表示して前記コンテンツカードで前記アプリケーション機能を直接操作させるステップと、
予め設定された切り替え条件を満足することが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップと、
を含み、
端末装置のスクリーンにアプリケーション機能に関連づけられたコンテンツカードを表示するステップは、
予め設定された表示パラメータを取得するステップと、
前記表示パラメータに基づいて、端末装置のスクリーンにアプリケーション機能に関連づけられたコンテンツカードを表示するステップと、
を含み、
前記表示パラメータは、1つの画面に表示されるカードの数及び表示サイズを含み、
前記1つの画面に表示されるカードの数が1より大きい場合に、前記表示パラメータは、カード配置方式をさらに含み、
前記カード配置方式は、横方向配置、縦方向配置、横方向と縦方向との混合配置、又は環状配置を含み、
予め設定された切り替え条件を満足することが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップは、
ユーザーの肢体運動軌跡を検出するステップと、
前記肢体運動軌跡が予め設定された切り替えトリガー軌跡とマッチングすることが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップと、
を含み、
端末装置のスクリーンにアプリケーション機能に関連づけられたコンテンツカードを表示する前に、
ユーザーの嗜好特徴を取得するステップと、
前記嗜好特徴に基づいて、前記スクリーンの各画面に表示されるアプリケーション機能タイプ、及び/又は、表示順番を設定するステップと、
をさらに含み、
ユーザーの嗜好特徴を取得するステップは、
ユーザーのアプリケーションカスタマイズコンテンツに基づいてユーザーの嗜好特徴を取得するステップ
を含む、
ことを特徴とするアプリケーション機能情報表示方法。」

なお、本願発明2ないし11は、本願発明1を減縮する発明であり、本願発明12は、本願発明1に対応する「アプリケーション機能情報表示装置」の発明であり、本願発明13は、本願発明1ないし11のいずれかを実現する「端末装置」の発明であり、本願発明14は、本願発明13を減縮する発明であり、本願発明15は、本願発明1ないし11のいずれかを実現する「コンピュータプログラム」の発明であり、本願発明16は、本願発明1ないし11のいずれかを実現する「コンピュータプログラム」が記憶されている「非一時的なコンピュータ読み取り可能な記憶媒体」の発明である。

第5 引用文献、引用発明等
1 引用文献1について
(1)引用文献1記載事項
引用文献1には、図面とともに次の事項が記載されている。(なお、下線は、強調のため当審が付与した。以降についても同様。)

ア 「[0012] In general, techniques of this disclosure may enable a wearable computing device (e.g., smart watches, activity trackers, heads-up display devices, etc.) to detect movement associated with the wearable computing device, and, in response to detecting a particular movement that approximates a predefined movement, output an altered presentation and/or arrangement of a visual stack of content cards displayed at a display device. For example, a wearable computing device (referred to herein simply as a "wearable") may output a graphical user interface (GUI) for presentation at a display (e.g., a display of the wearable).
[0013] The GUI may include a visual stack of content cards and each of the content cards may contain information (e.g., text, graphics, etc.) that is viewable at the display. For example, similar to a stack of playing cards, a visual stack of "content cards" may have several graphical elements overlaid on top of the other. In some implementations, only information associated with content card atop the visual stack may be visible at a given time, while information associated with the other content cards from the visual stack may be visually obscured "behind" the top content card, such that it is not visible at the display at the given time.」
「[当審訳]
[0012] 一般に、本開示の技術は、ウェアラブルコンピューティングデバイス(例えば、スマートウォッチ、アクティビティトラッカー、ヘッドアップディスプレイデバイスなど)が、ウェアラブルコンピューティングデバイスに関連する動きを検出し、予め定義された動きに近似した特定の動きを検出することに応答して、ディスプレイデバイスで表示されるコンテンツカードの視覚的スタックの変更されたプレゼンテーションおよび/または配置を出力することを可能にすることができる。例えば、ウェアラブルコンピューティングデバイス(本明細書では、単に「ウェアラブル」と呼ばれる)は、ディスプレイ(例えば、ウェアラブルのディスプレイ)で提示するためのグラフィカルユーザインターフェース(GUI)を出力してもよい。
[0013] GUIは、コンテンツカードの視覚的なスタックを含んでもよく、コンテンツカードの各々は、ディスプレイで表示可能な情報(例えば、テキスト、グラフィックスなど)を含んでもよい。例えば、トランプのスタックと同様に、「コンテンツカード」の視覚的スタックは、いくつかのグラフィック要素を重ねて持っていてもよい。いくつかの実装では、ビジュアルスタックのトップにあるコンテンツカードに関連する情報のみが所定の時間に表示され、ビジュアルスタックの他のコンテンツカードに関連する情報は、トップのコンテンツカードの「後ろ」に視覚的に隠蔽され、所定の時間にディスプレイで表示されないようになっている場合がある。」

イ 「[0017] FIG. 1 is a conceptual diagram illustrating wearable computing device 10 (referred to simply as "wearable 10") that displays a visual stack of content cards in different arrangements, in accordance with one or more aspects of the present disclosure. In the example of FIG.1, wearable 10 is a computerized watch. However in other examples, wearable computing device is a computerized fitness band/tracker, computerized eyewear, computerized headwear, a computerized glove, etc. In other examples, wearable 10 may be any type of mobile computing device that can attach to and be worn on a person's body or clothing. For example, any tablet computer, mobile phone, personal digital assistant (PDA), game system or controller, media player, e-book reader, television platform, navigation system, remote control, or other mobile computing device that can easily be moved by a user in accordance with the below described techniques.
[0018] As shown in FIG. 1, in some examples, wearable 10 may include attachment device 17 and electrical housing 18. Housing 18 of computing device 10 includes a physical portion of a wearable computing device that houses a combination of hardware, software, firmware, and/or other electrical components of wearable 10. For example, FIG. 1 shows that within housing 18, wearable 10 may include a user interface device (UID) 12, motion sensor(s) 15, user interface (UI) module 20, and movement detection module 22.
[0019] …(省略)…
[0020] …(省略)…
[0021] Motion sensors 15 represent one or more motion sensor or input device configured to detect indications of movement (e.g., data representing movement) associated with wearable 10. Examples of motion sensors 15 include accelerometers, speed sensors, gyroscopes, tilt sensors, barometers, proximity sensors, ambient light sensors, cameras, microphones, or any and all other types of input devices or sensors that can generate data from which wearable device 10 can determine movement.
[0022] Motions sensors 15 may generate "raw" motion data when a user of wearable 10 causes attachment device 17 and/or housing 18 to move. For example, as a user twists his or her wrist or moves his or her arm while wearing attachment device 17, motion sensors 15 may output raw motion data (e.g., indicating an amount of movement and a time at which the movement was detected) being generated during the movement to movement detection module 22. The motion data may indicate one or more characteristics of movement including at least one of an acceleration, a level of tilt, a direction, a speed, a degree of rotation, a degree of orientation, or a level of luminance.
[0023] Movement detection module 22 obtains motion sensor data generated by motion sensors 15 and processes the motion sensor data to identify or otherwise determine what specific types and characteristics of movement are being detected by motion sensors 15. Said differently, movement detection module 22 determines, based on motion sensor data, when, how, and in what direction that wearable 10 is moving. Movement detection module 22 may provide, based on motion data obtained from motion sensors 15, an indication (e.g., data) of when wearable 10 is detected moving in a recognizable, predefined, pattern or profile of movement. For example, movement detection module 22 may alert (e.g., trigger an interrupt, send a message, etc.) UI module 20 when movement detection module 22 identifies motion data obtained from motion sensors 15 that at least approximately corresponds to one or more of predefined movements. Movement detection module 22 may provide to UI module 20, data about the detected movement, for instance, data that defines the particular predefined movement indicated by the motion data.
[0024] As described below, UI module 20 may cause wearable 10 to perform one or more operations based on movement detected by movement detection module 22. For example, UI module 20 may alter the presentation of a user interface (e.g., user interfaces 14A and 14B) depending on the predefined movement identified by movement detection module 22. For example, at any particular time, movement detection module 22 may obtain motion sensor data, check the motion sensor data against one or more expected sensor data patterns or profiles that are normally observed by motion sensors 15 when wearable 10 moves in a certain direction, speed, acceleration, etc., and output data to UI module 20 that defines the predefined movement of wearable 10 being recognized from the motion sensor data. UI module 20 may alter the presentation of a user interface depending on the predefined movement identified by movement detection module 22.
[0025] UID 12 of wearable 10 may provide input and/or output functionality for wearable 10. UID 12 may be implemented using one or more various technologies. For instance, UID 12 may function as input device using a presence-sensitive input screen, such as a resistive touchscreen, a surface acoustic wave touchscreen, a capacitive touchscreen, a projective capacitance touchscreen, a pressure sensitive screen, an acoustic pulse recognition touchscreen, or another presence-sensitive display technology. UID 12 may function as output (e.g., display) device using any one or more display devices, such as a liquid crystal display (LCD), a dot matrix display, a light emitting diode (LED) display, an organic light-emitting diode (OLED) display, e-ink, or similar monochrome or color displays capable of outputting visible information to a user of wearable 10.
[0026] In some examples, UID 12 may include a presence-sensitive display that may include a display device and receive tactile input from a user of wearable 10. UID 12 may receive indications of tactile input by detecting one or more gestures from a user (e.g., the user touching or pointing to one or more locations of UID 12 with a finger or a stylus pen). UID 12 may present output to a user, for instance at a presence sensitive display. UID 12 may present the output as a graphical user interface (e.g., user interfaces 14A and 14B), which may be associated with functionality provided by wearable 10.
[0027] For example, UID 12 may present user interfaces 14A and 14B. User interface 14A includes arrangement 30A of a visual stack of content cards 16A-16N and user interface 14B includes arrangement 30B of the same visual stack of content cards 16A-16N shown in user interface 14B. Each of content cards 16A-16N (collectively "content cards 16") may contain information (e.g., text, graphics, etc.) that is viewable from UID 12.
[0028] Similar to a stack of playing cards, user interfaces 14A and 14B depict the visual stack of content cards 16 as a group of graphical elements being overlaid one on top of the other. Each of content cards 16A-16N may be associated functionality of computing platforms, operating systems, applications, and/or services executing at or accessible by wearable 10 (e.g., notification services, electronic message applications, Internet browser applications, mobile or desktop operating systems, etc.). A user may interact with user interfaces 14A and 14B while being present ed at UID 12 to cause wearable 10 to perform operations relating to functions.
[0029] Content cards 16A and 16D represent content cards 16 that each include information associated with a text-based messaging service application executing at wearable 10. Content cards 16A and 16D may include text-based information related to two different conversations between a user of wearable 10 and two different users of the messaging service. For example, a message account associated with wearable 10 may receive a notification or alert to a message received from a messaging service. Wearable 10 may present the information associated with content card 16A in response to the receipt of the notification. From content card 16A, the user of wearable 10 can view the content associated with the message and compose a reply message.
[0030] Content card 16B represents a content card 16 that includes weather information directed to a weather information services application (e.g., for viewing a forecast, receiving emergency weather alerts, etc.) and content card 16C may include a photo, video, or other image data associated with a photo or imaging application (e.g., a viewfinder of a camera, a picture or video playback, etc.). Content card 16N is another example of content cards 16 and includes an image of a clock associated with a time or calendar application. Still many other examples of content cards 16 exist, including media player related content cards, Internet search (e.g., text-based, voice-based, etc.) related content cards, navigation related content cards, and the like.」
「[当審訳]
[0017] 図1は、本開示の1つまたは複数の態様に従って、コンテンツカードの視覚的なスタックを異なる配置で表示するウェアラブルコンピューティングデバイス10(単に「ウェアラブル10」と称する)を示す概念図である。図1の例では、ウェアラブル10は、コンピュータ化された腕時計である。しかし、他の例では、ウェアラブルコンピューティングデバイスは、コンピュータ化されたフィットネスバンド/トラッカー、コンピュータ化されたアイウェア、コンピュータ化されたヘッドウェア、コンピュータ化されたグローブなどである。他の例では、ウェアラブル10は、人の身体または衣服に取り付けて着用できる任意のタイプのモバイルコンピューティングデバイスであってもよい。例えば、タブレットコンピュータ、携帯電話、PDA(Personal Digital Assistant)、ゲームシステムまたはコントローラ、メディアプレーヤー、電子書籍リーダー、テレビプラットフォーム、ナビゲーションシステム、リモコン、または以下に説明する技術に従ってユーザが容易に移動できる他のモバイルコンピューティングデバイスなどが挙げられる。
[0018] 図1に示すように、いくつかの例では、ウェアラブル10は、アタッチメントデバイス17および電気ハウジング18を含むことができる。コンピューティングデバイス10のハウジング18は、ウェアラブル10のハードウェア、ソフトウェア、ファームウェア、および/または他の電気コンポーネントの組み合わせを収容するウェアラブルコンピューティングデバイスの物理的部分を含む。例えば、図1は、ハウジング18内に、ウェアラブル10が、ユーザインターフェースデバイス(UID)12、モーションセンサ(複数可)15、ユーザインターフェース(UI)モジュール20、および動き検出モジュール22を含んでもよいことを示している。
[0019] …(省略)…
[0020] …(省略)…
[0021] モーションセンサ15は、ウェアラブル10に関連する動きの指標(例えば、動きを表すデータ)を検出するように構成された1つまたは複数のモーションセンサまたは入力デバイスを表す。モーションセンサ15の例には、加速度計、速度センサ、ジャイロスコープ、傾斜センサ、気圧計、近接センサ、環境光センサ、カメラ、マイクロフォン、またはウェアラブルデバイス10が動きを判断できるデータを生成することができる他のあらゆるタイプの入力デバイスまたはセンサが含まれる。
[0022] モーションセンサ15は、ウェアラブル10のユーザがアタッチメントデバイス17および/またはハウジング18を動かせば、「生の」運動データを生成することができる。例えば、アタッチメントデバイス17を装着している間に、ユーザが手首をひねったり、腕を動かしたりすると、モーションセンサ15は、動きの間に生成される生の動きデータ(例えば、動きの量および動きが検出された時間を示す)を動き検出モジュール22に出力してもよい。動きデータは、加速度、傾きのレベル、方向、速度、回転の度合い、向きの度合い、または輝度のレベルの少なくとも1つを含む動きの1つ以上の特性を示してもよい。
[0023] 動き検出モジュール22は、モーションセンサ15によって生成されたモーションセンサデータを取得し、モーションセンサデータを処理して、モーションセンサ15によってどのような特定のタイプおよび特性の動きが検出されているかを識別するか、さもなければ決定する。別の言い方をすると、動き検出モジュール22は、モーションセンサデータに基づいて、ウェアラブル10がいつ、どのように、どの方向に動いているかを決定する。動き検出モジュール22は、モーションセンサ15から得られた動きデータに基づいて、ウェアラブル10が、認識可能な、予め定義された、動きのパターンまたはプロファイルで動いていることが検出されたときの指標(例えば、データ)を提供してもよい。例えば、動き検出モジュール22は、動き検出モジュール22が、予め定義された動きのうちの1つ以上に少なくとも近似的に対応するモーションセンサ15から得られた動きデータを識別したときに、UIモジュール20に警告(例えば、割込みをトリガする、メッセージを送信するなど)してもよい。動き検出モジュール22は、検出された動きに関するデータ、例えば、動きデータによって示される特定の事前定義された動きを定義するデータを、UIモジュール20に提供してもよい。
[0024] 以下に説明するように、UIモジュール20は、動き検出モジュール22によって検出された動きに基づいて、ウェアラブル10に1つまたは複数の動作を実行させてもよい。例えば、UIモジュール20は、動き検出モジュール22によって特定された所定の動きに応じて、ユーザインターフェース(例えば、ユーザインターフェース14A及び14B)の提示を変更してもよい。例えば、任意の特定の時間に、動き検出モジュール22は、モーションセンサデータを取得し、モーションセンサデータを、ウェアラブル10が特定の方向、速度、加速度などで動いたときにモーションセンサ15によって通常観察される1つまたは複数の予想されるセンサデータパターンまたはプロファイルと照合し、モーションセンサデータから認識されるウェアラブル10の事前定義された動きを定義するデータをUIモジュール20に出力してもよい。UIモジュール20は、動き検出モジュール22によって特定された事前定義された動きに応じて、ユーザインターフェースの表示を変更してもよい。
[0025] ウェアラブル10のUID12は、ウェアラブル10の入力および/または出力機能を提供してもよい。UID12は、1つまたは複数の様々な技術を用いて実装されてもよい。例えば、UID12は、抵抗膜式タッチスクリーン、表面弾性波タッチスクリーン、静電容量式タッチスクリーン、投影型静電容量タッチスクリーン、感圧式スクリーン、音響パルス認識タッチスクリーンなどの存在感知入力スクリーン、または他の存在感知ディスプレイ技術を使用して、入力デバイスとして機能してもよい。UID12は、液晶ディスプレイ(LCD)、ドットマトリックスディスプレイ、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、e-ink、またはウェアラブル10のユーザに可視情報を出力することができる同様のモノクロまたはカラーディスプレイなどの、任意の1つまたは複数のディスプレイデバイスを使用して、出力(例えば、ディスプレイ)デバイスとして機能してもよい。
[0026] いくつかの例では、UID12は、ディスプレイデバイスを含み、ウェアラブル10のユーザからの触覚入力を受け取ることができる存在感知ディスプレイを含んでもよい。UID12は、ユーザからの1つまたは複数のジェスチャー(例えば、ユーザが指またはスタイラスペンでUID12の1つまたは複数の場所に触れるまたは指し示すこと)を検出することによって、触覚入力の指示を受け取ってもよい。UID 12は、例えば、存在感知ディスプレイで、ユーザに出力を提示することができる。UID12は、ウェアラブル10によって提供される機能に関連するグラフィカルユーザインターフェース(例えば、ユーザインターフェース14Aおよび14B)として出力を提示してもよい。
[0027] 例えば、UID12は、ユーザインターフェース14Aおよび14Bを提示してもよい。ユーザインターフェース14Aは、コンテンツカード16A-16Nの視覚的スタックの配置30Aを含み、ユーザインターフェース14Bは、ユーザインターフェース14Bに示されるコンテンツカード16A-16Nの同じ視覚的スタックの配置30Bを含む。コンテンツカード16A-16N(総称して「コンテンツカード16」)のそれぞれは、UID12から閲覧可能な情報(例えば、テキスト、グラフィックスなど)を含んでいてもよい。
[0028] トランプのスタックと同様に、ユーザインターフェース14Aおよび14Bは、コンテンツカード16の視覚的なスタックを、1つずつオーバーレイされたグラフィカル要素のグループとして描写する。コンテンツカード16A-16Nのそれぞれは、ウェアラブル10で実行される、またはウェアラブル10によってアクセス可能なコンピューティングプラットフォーム、オペレーティングシステム、アプリケーション、および/またはサービス(例えば、通知サービス、電子メッセージアプリケーション、インターネットブラウザアプリケーション、モバイルまたはデスクトップオペレーティングシステムなど)の機能を関連付けてもよい。ユーザは、UID12で提示されている間にユーザインターフェース14Aおよび14Bと対話して、ウェアラブル10に機能に関する動作を実行させることができる。
[0029] コンテンツカード16Aおよび16Dは、ウェアラブル10で実行されるテキストベースのメッセージングサービスアプリケーションに関連する情報をそれぞれ含むコンテンツカード16を表す。コンテンツカード16Aおよび16Dは、ウェアラブル10のユーザとメッセージングサービスの2つの異なるユーザとの間の2つの異なる会話に関連するテキストベースの情報を含むことができる。例えば、ウェアラブル10に関連するメッセージアカウントが、メッセージングサービスから受信したメッセージに対する通知またはアラートを受信してもよい。ウェアラブル10は、通知の受信に応答して、コンテンツカード16Aに関連する情報を提示してもよい。コンテンツカード16Aから、ウェアラブル10のユーザは、メッセージに関連するコンテンツを閲覧し、返信メッセージを作成することができる。
[0030] コンテンツカード16Bは、気象情報サービスアプリケーションに向けられた気象情報(例えば、予報の閲覧、緊急気象警報の受信など)を含むコンテンツカード16を表し、コンテンツカード16Cは、写真またはイメージングアプリケーションに関連付けられた写真、ビデオ、またはその他の画像データ(例えば、カメラのビューファインダ、写真またはビデオの再生など)を含んでもよい。コンテンツカード16Nは、コンテンツカード16の他の例であり、時間またはカレンダーアプリケーションに関連付けられた時計の画像を含む。メディアプレーヤー関連のコンテンツカード、インターネット検索(例えば、テキストベース、音声ベースなど)関連のコンテンツカード、ナビゲーション関連のコンテンツカードなど、さらに多くのコンテンツカード16の例が存在する。」

ウ 「[0035] In some examples, UI module 20 may interpret inputs and/or movement data detected at UID 12 and by movement detection module 22, and in response to the inputs and/or movement data, cause UID 12 to alter the presentation of user interfaces 14A and 14B. For instance, in one example, a user may cause housing 18 and/or attachment 16 of wearable 10 to move. UI module 20 may alter the presentation of user interface 14A in response to wearable 10 moving. For example, UI module 20 may cause UID 12 to present the visual stack of content cards 16 in arrangement 30A prior to the movement, and may cause UID 12 to present the visual stack in arrangement 30B after the movement.
[0036] UI module 20 may maintain a data store that maintains an association between one or more predefined movements and one or more respective arrangements of content cards 16. When UI module 20 determines that one of the predefined movements of wearable 10 has been identified by movement detection module 22, UI module 20 may select the arrangement of content cards 16 that corresponds to the movement. UI module 20 may cause UID 12 to display the visual stack of content cards 16 in that selected, and corresponding arrangement. In this way, UI module 20 may select an arrangement of content cards in response to, and based on, movement that corresponds to a predefined movement.
[0037] In some examples, after presenting the visual stack of content cards 16 in arrangement 30A or 30B, a user may provide a touch input (e.g., a gesture) at a location of UID 12. The location of the touch input may correspond to an area or region of UID 12 at which a portion of the information associated with one of content cards 16 is being displayed. UI module 20 may determine that the touch input corresponds to a selection of the one of content cards 16 that has a portion of information being presented at the location of the touch input. Responsive to determining the selection of one of content cards 16, UI module 20 may cause UID 12 to present the selected one of content cards 16 as a new "topcard" to replace the current top-card. UI module 20 may cause UID 12 to present the information associated with a selected one of content cards 16 without any obstruction from information associated with any other content card s 16. In some examples, UI module 20 may relay an indication of the touch input to an application, platform, component, etc. associated with the selected content card to cause wearable 10 to invoke that application, platform, component, etc. to perform a function.
[0038] In operation, wearable 10 may display a visual stack of content cards in a first arrangement from a plurality of arrangements. For example, UI module 20 may cause UID 12 to present user interface 14A which includes the visual stack of content cards 16 being displayed in arrangement 30A. UI module 20 may cause content card 16A to be displayed as a topcard of the visual stack of content cards 16. In some examples, arrangement 30A represents a "default" arrangement of content cards 16. In other words, without detecting any other movement or receiving any other indications of input, UI module 20 may cause UID 12 to present user interface 14A (e.g., when wearable 10 first powers-up).
[0039] A motion sensor of wearable 10 may detect movement of wearable 10. For example, one or more motion sensors 15 (e.g., tilt sensors, gyros, accelerometers, etc.) may detect movement of wearable 10 as a user moves (e.g., twists) the part of his or her body that attachment device 17 is attached to, and causes the direction, acceleration, orientation, etc. of housing 18 and/or attachment device 17 to change. Based on the detected movement, motion sensors 15 may generate motion data that divines the detected movement. Movement detection module 22 may obtain the motion data generated by motion sensors 15 while wearable 10 moves.
[0040] Movement detection module 22 may compare the movement data
obtained from motion sensors 15 to a database or data store of one or more predefined movements. Movement detection module 22 may determine that the motion sensor data matches or otherwise correlates to a particular movement of wearable 10 when a user of wearable 10 waves, twists, shakes, or otherwise moves the arm or wrist that attachment device 17 is fastened to. For example, movement detection module 22 may determine that the motion sensor data indicates a change in speed, acceleration, direction, rotation, or other characteristic of movement that corresponds to the movement of wearable 10 when a person twists his or her arm or wrist in a certain way. Movement detection module 22 may output an indication (e.g., data) to UI module 20 that alerts UI module 20 as to which of the predefined movements that the movement data corresponds to.
[0041] Responsive to determining that the movement of wearable 10 corresponds to a predefined movement, wearable 10 may select, based on the predefined movement, a second arrangement from the plurality of arrangements. The second arrangement may be different from the first arrangement. For example, UI module 20 may input the identified predefined movement in to one or more rules UI module 20 uses for determining how to change the presentation of content cards 16. UI module 20 may determine that the predefined movement that matches the recent movement of wearable 10 corresponds to the movement associated with arrangement 3 OB (e.g., a fan-out arrangement).
[0042] Wearable 10 may display the visual stack of content cards in the second arrangement. For example, UI module 20 may cause UID 12 to refrain from presenting or otherwise cease displaying user interface 14A and replace the presentation of user interface 14A with user interface 14B. UID 12 may display the visual stack of content cards 16 in arrangement 30B.」
「[当審訳]
[0035] いくつかの例では、UIモジュール20は、UID12で、動き検出モジュール22によって検出された入力および/または動きデータを解釈し、入力および/または動きデータに応答して、UID12にユーザインターフェース14Aおよび14Bの提示を変更させることができる。例えば、一例では、ユーザは、ウェアラブル10のハウジング18および/またはアタッチメント16を移動させてもよい。UIモジュール20は、ウェアラブル10が動いたことに応答して、ユーザインターフェース14Aの提示を変更してもよい。例えば、UIモジュール20は、移動前にUID12にコンテンツカード16の視覚的スタックを配置30Aで提示させ、移動後にUID12に視覚的スタックを配置30Bで提示させてもよい。
[0036] UIモジュール20は、1つまたは複数の事前定義された動きと、コンテンツカード16の1つまたは複数のそれぞれの配置との間の関連性を維持するデータストアを維持してもよい。UIモジュール20が、ウェアラブル10の事前定義された動きの1つが動き検出モジュール22によって識別されたと判断すると、UIモジュール20は、動きに対応するコンテンツカード16の配置を選択してもよい。UIモジュール20は、UID12に、その選択された、対応する配置のコンテンツカード16の視覚的スタックを表示させてもよい。このように、UIモジュール20は、予め定義された動きに対応する動きに応じて、それに基づいて、コンテンツカードの配置を選択してもよい。
[0037] いくつかの例では、コンテンツカード16の視覚的スタックを配列30Aまたは30Bで提示した後、ユーザはUID12の位置でタッチ入力(例えば、ジェスチャー)を提供してもよい。タッチ入力の場所は、コンテンツカード16の1つに関連する情報の一部が表示されているUID12のエリアまたは領域に対応してもよい。UIモジュール20は、タッチ入力が、タッチ入力の場所で提示されている情報の一部を有するコンテンツカード16のうちの1つの選択に対応すると判定してもよい。コンテンツカード16のうちの1つの選択を決定することに応答して、UIモジュール20は、UID12に、コンテンツカード16のうちの選択された1つを、現在のトップカードに代わる新しい「トップカード」として提示させてもよい。UIモジュール20は、UID12に、コンテンツカード16のうちの選択された1つに関連する情報を、他のコンテンツカード16に関連する情報から妨害されることなく提示させてもよい。いくつかの例では、UIモジュール20は、選択されたコンテンツカードに関連するアプリケーション、プラットフォーム、コンポーネントなどにタッチ入力の指示を中継して、ウェアラブル10にそのアプリケーション、プラットフォーム、コンポーネントなどを呼び出して機能を実行させてもよい。
[0038] 動作において、ウェアラブル10は、複数の配置から第1の配置でコンテンツカードの視覚的スタックを表示してもよい。例えば、UIモジュール20は、UID12に、コンテンツカード16の視覚的スタックが配置30Aで表示されることを含むユーザインターフェース14Aを提示させてもよい。UIモジュール20は、コンテンツカード16Aを、コンテンツカード16の視覚的スタックのトップカードとして表示させてもよい。いくつかの例では、配置30Aは、コンテンツカード16の「デフォルト」配置を表す。言い換えれば、他の動きを検出することなく、または入力の他の指標を受け取ることなく、UIモジュール20は、UID12にユーザインターフェース14Aを提示させてもよい(例えば、ウェアラブル10が最初に電源を入れたとき)。
[0039] ウェアラブル10のモーションセンサは、ウェアラブル10の動きを検出してもよい。例えば、1つ以上のモーションセンサ15(例えば、チルトセンサ、ジャイロ、加速度計など)は、ユーザがアタッチメントデバイス17が取り付けられている体の一部を動かし(例えば、ひねり)、ハウジング18および/またはアタッチメントデバイス17の方向、加速度、向きなどを変化させることによって、ウェアラブル10の動きを検出してもよい。検出された動きに基づいて、モーションセンサ15は、検出された動きを占う動きデータを生成してもよい。動き検出モジュール22は、ウェアラブル10が動いている間に、モーションセンサ15が生成した動きデータを取得してもよい。
[0040] 動き検出モジュール22は、モーションセンサ15から得られた動きデータを、1つまたは複数の事前定義された動きのデータベースまたはデータストアと比較してもよい。動き検出モジュール22は、ウェアラブル10のユーザが、アタッチメントデバイス17が固定されている腕または手首を振ったり、ひねったり、揺らしたり、またはその他の方法で動かしたときに、モーションセンサデータがウェアラブル10の特定の動きと一致するか、またはその他の方法で相関していると判断してもよい。例えば、動き検出モジュール22は、モーションセンサデータが、人が腕または手首をある方法でひねったときのウェアラブル10の動きに対応する速度、加速度、方向、回転、または動きの他の特性の変化を示していると判断してもよい。動き検出モジュール22は、動きデータが事前定義された動きのいずれに対応するかをUIモジュール20に警告する指標(例えば、データ)を出力してもよい。
[0041] ウェアラブル10の動きが予め定義された動きに対応すると決定することに応答して、ウェアラブル10は、予め定義された動きに基づいて、複数の配置から第2の配置を選択してもよい。第2の配置は、第1の配置と異なっていてもよい。例えば、UIモジュール20は、識別された事前定義された動きを、コンテンツカード16のプレゼンテーションをどのように変更するかを決定するためにUIモジュール20が使用する1つまたは複数のルールに入力してもよい。UIモジュール20は、ウェアラブル10の最近の動きに一致する事前定義された動きが、配置3OB(例えば、ファンアウト配置)に関連する動きに対応すると判断してもよい。
[0042] ウェアラブル10は、コンテンツカードの視覚的スタックを第2の配置で表示してもよい。例えば、UIモジュール20は、UID12に、ユーザインターフェース14Aの提示を控えるか、さもなければ表示を中止し、ユーザインターフェース14Aの提示をユーザインターフェース14Bに置き換えるようにさせてもよい。UID12は、コンテンツカードの視覚的スタック16を配置30Bで表示してもよい。」

エ 「[0063] FIG. 3A illustrates a view of a display (e.g., UID 12) of wearable 10 as wearable 10 is being worn on a wrist of the user with the display of wearable 10 facing the user's point of view. From the view being shown in FIG. 3A, wearable 10 may cause UID 12 to present a user interface 60 A including a visual stack of content cards being arranged in a first arrangement. For instance, the arrangement shown in FIG. 3A represents a top-town view of the visual stack with information associate d with only a single, "top-card" (e.g., that includes a clock face image) of the visual stack being displayed at a time. The user may cause wear able 10 to move in the direction and manner indicated by movement arrow 62A. For example, the user may twist his or her wrist in a direction and/or with a degree of rotation, such that the display of wearable 10 move s from a viewable angle, to a non-viewable angle (e.g., perpendicular to the user's view).
[0064] FIG. 3B shows a view of the display of wearable 10 as wearable 10 is being worn on a wrist of the user after the user turns his or her wrist in a direction that rotates his or her wrist to a nonviewable angle (e.g., the display projects graphical content in a direction that is perpendicular to the user's point of view). Following the movement shown in FIG. 3 A, the user may continue to cause wearable 10 to move by causing wearable 10 to move in the direction and manner indicated by movement arrow 62B. For example, the user may twist his or her wrist back in the opposite direction indicated by movement arrow 62A. The user may twist his or her wrist in a direction and/or with a degree of rotation, such that the display of wearable 10 moves from a non- viewable angle, back to a viewable angle. In some examples, movement arrows 62A and 62B represent an uninterrupted, continuous single of wearable 10 such that the display of wearable 10 begins at a viewable angle with respect to the user's point of view, changes to a non- viewable angle with respect to the user's point of view, and reverts back to the viewable angle, all with a single motion.
[0065] FIG. 3C shows that the user may complete the movement of Wearable 10, such that after moving wearable in the manner depicted by movement arrows 62A and 62B in FIGS. 3 A and 3B, the user may cause the display of wearable 10 to be user facing again. Movement detection module 22 may obtain sensor data from one or more motion sensors 15 (e.g., an accelerometer, a tilt sensor, etc.) during the time when the user causes wearable e 10 to move in the directions and in the manners indicated by movement arrows 62 A and 62B. Movement detection module 22 may determine that the sensor data indicates a movement pattern or profile that corresponds to one or more predefined movements stored at movement data store 26B. Movement detection module 22 may send information to UI module 20 indicating that the predefined movement was detected.
・・・(中略)・・・
[0067] Said differently, FIG. 3 A shows that wearable 10 may display user interface 60A which includes a visual stack of content cards displayed in a first arrangement by displaying only a first content card (e.g., containing information associated with a clock application) from the visual stack of content cards. After detecting the movement indicated in FIGS. 3A and 3B by movement arrows 62A and 62B, wearable 10 may display user interface 60B which includes the visual stack of content cards displayed in the second arrangement by displaying only a second content card (e.g., containing weather information associated with a weather application) from the visual stack of content cards. The second content card is different from the first content card.」
「[当審訳]
[0063] 図3Aは、ウェアラブル10のディスプレイをユーザの視点に向けて、ウェアラブル10がユーザの手首に装着されているときの、ウェアラブル10のディスプレイ(例えば、UID12)のビューを示す。図3Aに示されているビューから、ウェアラブル10は、UID12に、第1の配列で配置されているコンテンツカードの視覚的スタックを含むユーザインターフェース60Aを提示させてもよい。例えば、図3Aに示す配置は、一度に表示される視覚的スタックの単一の「トップカード」(例えば、時計の文字盤画像を含む)のみに関連する情報を有する視覚的スタックのトップタウンビューを表す。ユーザは、ウェアラブル10を、移動矢印62Aによって示される方向および方法で移動させることができる。例えば、ユーザは、ウェアラブル10のディスプレイが、表示可能な角度から、表示不可能な角度(例えば、ユーザの視界に対して垂直)に移動するように、方向および/または回転の度合いで手首をひねってもよい。
[0064] 図3Bは、ユーザが手首を非視認可能な角度に回転させる方向に手首を回転させた後、ウェアラブル10がユーザの手首に装着されているときのウェアラブル10のディスプレイの図を示す(例えば、ディスプレイは、ユーザの視点に対して垂直な方向にグラフィカルコンテンツを投影する)。図3 Aに示す動きに続いて、ユーザは、動き矢印62Bによって示される方向および態様でウェアラブル10を動かすことによって、ウェアラブル10を動かすことを継続してもよい。例えば、ユーザは、動作矢印62Aによって示される反対方向に手首をねじって戻してもよい。ユーザは、ウェアラブル10のディスプレイが非表示の角度から表示可能な角度に戻るように、方向および/または回転の度合いで手首をひねってもよい。いくつかの例では、動き矢印62Aおよび62Bは、ウェアラブル10の表示が、ユーザの視点に対して見ることができる角度から始まり、ユーザの視点に対して見ることができない角度に変化し、見ることができる角度に戻るような、ウェアラブル10の中断されない連続的な単一の動作を、すべて1回の動作で表している。
[0065] 図3Cは、図3Aおよび図3Bの移動矢印62Aおよび62Bによって描かれた方法でウェアラブルを移動させた後に、ユーザがウェアラブル10のディスプレイを再びユーザ向きにさせるように、ユーザがウェアラブル10の移動を完了させてもよいことを示す図である。移動検出モジュール22は、ユーザがウェアラブル10を移動矢印62Aおよび62Bによって示される方向および方法で移動させている間に、1つまたは複数のモーションセンサ15(例えば、加速度センサ、傾斜センサなど)からセンサデータを取得してもよい。動き検出モジュール22は、センサデータが、動きデータストア26Bに格納された1つ以上の事前定義された動きに対応する動きパターンまたはプロファイルを示していると判断してもよい。動き検出モジュール22は、事前定義された動きが検出されたことを示す情報をUIモジュール20に送信してもよい。
・・・(中略)・・・
[0067] 別の言い方をすると、図3Aは、ウェアラブル10が、コンテンツカードの視覚的スタックから第1のコンテンツカード(例えば、時計アプリケーションに関連する情報を含む)のみを表示することによって、第1の配置で表示されたコンテンツカードの視覚的スタックを含むユーザインターフェース60Aを表示してもよいことを示している。動き矢印62Aおよび62Bによって図3Aおよび3Bに示される動きを検出した後、ウェアラブル10は、コンテンツカードの視覚的スタックから第2のコンテンツカード(例えば、天気アプリケーションに関連する天気情報を含む)のみを表示することによって、第2の配置で表示されたコンテンツカードの視覚的スタックを含むユーザインターフェース60Bを表示してもよい。第2のコンテンツカードは、第1のコンテンツカードとは異なる。」

オ 「FIG.3A



カ 「FIG.3B



キ 「FIG.3C



(2)引用発明
上記アないしキの記載より、特に下線部に着目すると、引用文献1には、次の発明(以下、「引用発明」という。)が記載されていると認められる。

「 ウェアラブルコンピューティングデバイス10(単に「ウェアラブル10」と称する)は、アタッチメントデバイス17および電気ハウジング18を含むことができ、
ハウジング18内に、ウェアラブル10が、ユーザインターフェースデバイス(UID)12、モーションセンサ(複数可)15、ユーザインターフェース(UI)モジュール20、および動き検出モジュール22を含んでもよく、
モーションセンサ15は、ウェアラブル10に関連する動きの指標(例えば、動きを表すデータ)を検出するように構成された1つまたは複数のモーションセンサまたは入力デバイスを表し、モーションセンサ15の例には、加速度計、速度センサ、ジャイロスコープ、傾斜センサ、気圧計、近接センサ、環境光センサ、カメラ、マイクロフォン、またはウェアラブルデバイス10が動きを判断できるデータを生成することができる他のあらゆるタイプの入力デバイスまたはセンサが含まれ、
アタッチメントデバイス17を装着している間に、ユーザが手首をひねったり、腕を動かしたりすると、モーションセンサ15は、動きの間に生成される生の動きデータを動き検出モジュール22に出力してもよく、動きデータは、加速度、傾きのレベル、方向、速度、回転の度合い、向きの度合い、または輝度のレベルの少なくとも1つを含む動きの1つ以上の特性を示してもよく、
動き検出モジュール22は、モーションセンサ15によって生成されたモーションセンサデータを取得し、モーションセンサデータに基づいて、ウェアラブル10がいつ、どのように、どの方向に動いているかを決定し、動き検出モジュール22が、予め定義された動きのうちの1つ以上に少なくとも近似的に対応するモーションセンサ15から得られた動きデータを識別したときに、UIモジュール20に警告(例えば、割込みをトリガする、メッセージを送信するなど)してもよく、UIモジュール20は、動き検出モジュール22によって特定された所定の動きに応じて、ユーザインターフェースの提示を変更してもよく、
ウェアラブル10のUID12は、ウェアラブル10の入力および/または出力機能を提供してもよく、UID12は、ディスプレイデバイスを含み、ウェアラブル10のユーザからの触覚入力を受け取ることができる存在感知ディスプレイを含んでもよく、
UID12は、ユーザインターフェース14Aおよび14Bを提示してもよく、ユーザインターフェース14Aは、コンテンツカード16A-16Nの視覚的スタックの配置30Aを含み、ユーザインターフェース14Bは、ユーザインターフェース14Bに示されるコンテンツカード16A-16Nの同じ視覚的スタックの配置30Bを含み、
コンテンツカード16A-16Nのそれぞれは、ウェアラブル10で実行されるアプリケーションの機能を関連付けてもよく、ユーザは、UID12で提示されている間にユーザインターフェース14Aおよび14Bと対話して、ウェアラブル10に機能に関する動作を実行させることができ、
コンテンツカード16Aおよび16Dは、ウェアラブル10で実行されるテキストベースのメッセージングサービスアプリケーションに関連する情報をそれぞれ含むコンテンツカード16を表し、コンテンツカード16Aから、ウェアラブル10のユーザは、メッセージに関連するコンテンツを閲覧し、返信メッセージを作成することができ、
UIモジュール20は、1つまたは複数の事前定義された動きと、コンテンツカード16の1つまたは複数のそれぞれの配置との間の関連性を維持するデータストアを維持してもよく、UIモジュール20が、ウェアラブル10の事前定義された動きの1つが動き検出モジュール22によって識別されたと判断すると、UIモジュール20は、動きに対応するコンテンツカード16の配置を選択してもよく、UIモジュール20は、UID12に、その選択された、対応する配置のコンテンツカード16の視覚的スタックを表示させてもよく、
ウェアラブル10は、複数の配置から第1の配置でコンテンツカードの視覚的スタックを表示してもよく、
動き検出モジュール22は、モーションセンサ15から得られた動きデータを、1つまたは複数の事前定義された動きのデータベースまたはデータストアと比較してもよく、動き検出モジュール22は、ウェアラブル10のユーザが、アタッチメントデバイス17が固定されている腕または手首を振ったり、ひねったり、揺らしたり、またはその他の方法で動かしたときに、モーションセンサデータがウェアラブル10の特定の動きと一致するか、またはその他の方法で相関していると判断してもよく、
例えば、動き検出モジュール22は、モーションセンサデータが、人が腕または手首をある方法でひねったときのウェアラブル10の動きに対応する速度、加速度、方向、回転、または動きの他の特性の変化を示していると判断してもよく、動き検出モジュール22は、動きデータが事前定義された動きのいずれに対応するかをUIモジュール20に警告する指標(例えば、データ)を出力してもよく、
ウェアラブル10の動きが予め定義された動きに対応すると決定することに応答して、ウェアラブル10は、予め定義された動きに基づいて、複数の配置から第2の配置を選択してもよく、
ウェアラブル10が、コンテンツカードの視覚的スタックから第1のコンテンツカード(例えば、時計アプリケーションに関連する情報を含む)のみを表示することによって、第1の配置で表示されたコンテンツカードの視覚的スタックを含むユーザインターフェース60Aを表示してもよく、動きを検出した後、ウェアラブル10は、コンテンツカードの視覚的スタックから第2のコンテンツカード(例えば、天気アプリケーションに関連する天気情報を含む)のみを表示することによって、第2の配置で表示されたコンテンツカードの視覚的スタックを含むユーザインターフェース60Bを表示してもよい、
ウェアラブルコンピューティングデバイス10。」

2 引用文献2について
引用文献2には、図面とともに次の事項が記載されている。

「【0015】
図1に示したように、本開示の一実施形態に係る表示システム1は、表示装置10と、入力装置20と、サーバ装置30と、表示制御装置100と、を含んで構成される。本開示の一実施形態に係る表示システム1は、後述するように、レイアウトの自由度が高いシステムである。そして本開示の一実施形態に係る表示システム1は、レイアウトの自由度が高いシステムにおいて、様々な形態をもつオブジェクトを自動的に最適化して表示することが可能なように構成されている。
【0016】
表示装置10は、表示制御装置100の制御によって文字、画像その他のあらゆる情報を表示する装置である。表示装置10は、自ら情報を表示するものであってもよく、他の物体(例えば壁面、机上、人体等)に映像を投影することで情報を表示するものであってもよい。表示装置10は、例えば液晶ディスプレイ、有機ELディスプレイ、プロジェクタ、ヘッドマウントディスプレイ(HMD)、ウェアラブルデバイス、自動車に搭載されるナビゲーションシステムで使用される表示デバイス、外科手術用の表示デバイスその他の、情報を表示することが可能な装置であり得る。表示装置10がプロジェクタである場合は、表示装置10は、例えば部屋の壁面や、部屋の中に設置されたスクリーンに情報を投影する位置に設けられる。表示装置10がウェアラブルデバイスである場合は、表示装置10は、例えばユーザの頭部や腕部等に装着され得る。
【0017】
本実施形態では、表示制御装置100の制御によって表示装置10に表示される、文字、画像その他の情報のそれぞれを「アイテム」と称する。ここで、アイテムは本開示のオブジェクトの一例であり、各アイテムは、表示制御装置100の制御によって表示位置及び表示形態が決定される。表示制御装置100の制御によって決定される表示形態として、アイテムの大きさやアイテムの情報量が決定され得る。表示制御装置100の制御によってアイテムの大きさやアイテムの情報量が決定される例については後に詳述する。
【0018】
入力装置20は、例えばタッチパネル、キーボード、マウス、カメラ、マイク、センサ等の、ユーザからのあらゆる情報や命令が入力可能な装置で構成され得る。入力装置20で入力された情報は表示制御装置100に送られる。表示制御装置100は、入力装置20で入力された情報に基づいて表示装置10の表示を制御し得る。
【0019】
サーバ装置30は、表示システム1に関する様々な情報を格納し、必要に応じて表示制御装置100に提供する装置である。サーバ装置30は、表示制御装置100との間で、インターネットその他のネットワーク(図示せず)を介して接続されている。サーバ装置30が格納する情報は、例えば、表示装置10に表示させるための、表示システム1を使用するユーザに関する各種情報が含まれ得る。表示システム1を使用するユーザに関する各種情報としては、例えば、当該ユーザや当該ユーザの家族のスケジュール、当該ユーザに対して送信されたメールその他のメッセージ、当該ユーザの居住地や行き先の天気予報等が含まれ得る。スケジュールには、単にそのユーザの予定だけでなく、そのユーザが設定したイベントの予定なども含まれ得る。」

「【0026】
図2に示したように、本開示の一実施形態に係る表示制御装置100は、通信部110と、入力部120と、制御部130と、記憶部140と、出力部150と、を含んで構成される。
・・・(中略)・・・
【0030】
本実施形態では、制御部130は、アイテムを表示装置10へ表示する要求を検知し、その検知に基づいて、アイテムを表示装置10へ表示する際の適切なひな型(本実施形態では、そのひな型を「レイアウトパターン」とも称する)を選択し、そのひな型を用いて、アイテムを表示装置10へ表示する制御を実行する。制御部130が、このような一連の動作を実行することにより、本開示の一実施形態に係る表示制御装置100は、図2に示したような構成を有することで、レイアウトの自由度が高いシステムにおいて、様々な形態をもつオブジェクトを自動的に最適化して表示することが可能となる。なお、制御部130の詳細な機能構成例については、後に詳述する。」

「【0036】
図3に示したように、本開示の一実施形態に係る表示制御装置100に含まれる制御部130は、検知部132と、ひな型選択部134と、表示形態決定部136と、を含んで構成される。
【0037】
検知部132は、アイテムを表示装置10へ表示する要求を検知する。本実施形態では、アイテムを表示装置10へ表示する要求を「追加表示要求」とも称する。アイテムの追加表示要求は、様々な形式で発生し得る。例えば、表示装置10や、表示制御装置100の電源が投入されたタイミングでアイテムの追加表示要求が発生してもよく、ユーザが入力装置20を用いて明示的に追加表示要求を入力してもよく、サーバ装置30が提供するサービスにおいて所定のイベントが発生した際に、サーバ装置30から追加表示要求が送信されてきてもよく、予め定められた時間、日付、曜日になると追加表示要求が発生してもよい。
【0038】
ユーザによる追加表示要求の入力は、キーボード、マウス、タッチパネル等の入力デバイスで行われてもよく、ユーザのジェスチャや音声等で行われてもよい。例えば入力装置20にユーザのジェスチャを撮像するためのカメラが備えられてもよい。そして検知部132は、入力装置20に備えられたカメラで撮像されたユーザのジェスチャの内容を解析して、どのような追加表示要求がユーザから入力されたかを判断してもよい。また例えば、入力装置20にユーザの発話内容を収音するマイクが備えられてもよい。そして検知部132は、入力装置20に備えられたマイクで収音されたユーザが発話した声の内容を解析することでどのような追加表示要求が入力されたかを判断してもよい。従って検知部132は、画像を解析する処理や、音声を解析する処理を実行してもよい。」

「【0044】
レイアウトパターン200には、要素として表示領域の数、各表示領域の座標、各表示領域へ表示させるコンテンツ種類(テキスト、リスト、イラスト、静止画像、動画像等の画像、動的なエフェクト、地図、ブラウザ、SNS、またはこれらの組み合わせ等が含まれ得る)などの情報が格納される。表示制御装置100は、レイアウトパターン200の情報と、表示装置10へ表示しようとするアイテムに関する情報と、すでに表示装置10に表示されているアイテムがあればそのアイテムに関する情報と、を用いて、アイテムの表示に適したレイアウトパターン200を選択する。そして表示制御装置100は、アイテムの表示に適したレイアウトパターン200を選択すると、そのレイアウトパターン200にアイテムを当てはめて表示するような表示装置10に信号を送出する。
【0045】
レイアウトパターン200は様々なレイアウトを有し得る。図4Aは、主表示領域210を1つだけ有するレイアウトパターン200を示したが、図4Bは、3つの主表示領域210a、210b、210cと、2つの副表示領域220a、220bと、を有するレイアウトパターン200を示す。また図4Cは、画像を表示する領域を主表示領域210として有するとともに、主表示領域210の右隣に2つの副表示領域220a、220bを有するレイアウトパターン200を示す。もちろん、レイアウトパターン200は図4A〜図4Cに示したものに限られないことは言うまでもない。
【0046】
本開示の一実施形態に係る表示制御装置100は、上述したような構成を有することで、レイアウトの自由度が高いシステムにおいて、レイアウトパターン200を好適に選択して、様々な表示形態をもつオブジェクト(アイテム)を自動的に最適化して表示することが可能になる。」

「【0050】
アイテムは様々な方法で追加され得る。例えば、ユーザが入力装置20を用いて表示装置10にアイテムを追加して表示するための追加表示要求を入力してもよい。上述したように、追加表示要求の入力は、入力装置20として設けられるキーボード、マウス、タッチパネル等の入力デバイスで行われてもよく、ユーザのジェスチャや音声等で行われてもよい。また、追加表示要求の入力は、サーバ装置30が提供するサービスから表示制御装置100に対する、いわゆるプッシュ型通知によって行われてもよく、表示制御装置100からサーバ装置30に周期的に問い合わせて、その問い合わせに応じてサーバ装置30が提供するサービスから送信される、いわゆるポーリング型通知によって行われてもよい。例えば、サーバ装置30が提供するサービスがメールやSNSのサービスの場合、自ユーザ宛のメッセージなど追加表示要求として取得してもよい。また例えば、サーバ装置30が天気情報のような所定の間隔で変化し得る情報を提供する場合、表示制御装置100は、その情報を所定の周期でサーバ装置30から取得することで追加表示要求を取得してもよい。」

「【0058】
表示装置10に新規に表示されるアイテムが、表示優先度や表示領域要求を有していてもよい。そして、レイアウトパターン200の各表示領域も、対応する優先度や表示領域を有していてもよい。そして表示制御装置100は、アイテムが有する表示優先度や表示領域要求及びレイアウトパターン200の各表示領域が有する優先度や表示領域の情報を利用して、レイアウトパターンを選択してもよい。
【0059】
例えば、アイテムを1つだけ表示する場合、優先度や表示領域を考慮しなければ、その表示しようとするアイテムが(ユーザにとって)さほど重要でない情報であったとしても画面一杯に表示される可能性がある。一方、表示しようとするアイテム自体に優先度や表示領域要求を有していると、表示制御装置100は、その表示しようとするアイテムに最適な表示を行うことができる。
【0060】
図7は、表示制御装置100がアイテムの優先度を考慮してアイテムの表示を決定する場合の例を示す説明図である。図7に示した例は、主表示領域としてテキストを表示する領域を1つだけ持つが、それぞれ保有する表示領域が異なるレイアウトパターン−1及びレイアウトパターン−2を持つシステムを考える。図7には、レイアウトパターン−1よりレイアウトパターン−2の方が、テキストを表示する領域が大きい例が示されている。また図7には、2つのアイテムA、Bが示されており、優先度が、例えば最大を100として、それぞれ30、85である例が示されている。新規でアイテムAを追加する場合は、(絶対的に)優先度が低いので、表示制御装置100はレイアウトパターン−1を、新規でアイテムBを追加する場合は、(絶対的に)優先度が高いので、表示制御装置100はレイアウトパターン−2を選択する。このように似たようなアイテム、レイアウトパターンであっても優先度や表示領域を利用することで柔軟な表示を行うことが可能である。もちろん表示するアイテムがテキスト以外のアイテム、例えば画像等に応用することが可能であることは言うまでもない。
【0061】
表示制御装置100は、アイテムが有する優先度に応じてアイテムを出す場所を変えるようにしてもよい。表示制御装置100は、例えば、アイテムが有する優先度が所定の閾値より高ければ主表示領域に、所定の閾値以下であれば副表示領域に、それぞれアイテムを表示するよう制御してもよい。また表示制御装置100は、ユーザの視線を検出し、その視線に応じてアイテムを出す場所を変えるようにしてもよい。また表示制御装置100は、同一のレイアウトパターンであっても、アイテムを表示する領域の大きさを変化させても良い。」

「【0104】
アイテムに設定される優先度は、時間経過とともに変化され得る。表示制御装置100は、アイテムの優先度を時間の経過とともに連続的に減衰(または増加)させてもよいし、ある時間内は優先度を維持し、その時間が経過した後に減衰(または増加)させてもよい。例えば、アイテムとして出勤時間を知らせるタイマーを表示させる場合には、表示制御装置100は、時間の経過に伴ってそのアイテムの優先度を増加させる。そして表示制御装置100は、アイテムに設定される優先度の変化に応じてレイアウトパターンを優先度に合ったものに動的に変化させてもよい。」

「【0107】
表示制御装置100は、逆に、アイテムが既視状態になると、そのアイテムの優先度を維持したり、上げたりしてもよい。アイテムとして例えばニュースのように長い文章が表示されたり、閲覧者が同時に複数存在しているような場合は、アイテムが既視状態になると、そのアイテムの優先度を維持したり、優先度を上げたりしても良い。既視状態になった際の優先度は、コンテンツ種類(画像・テキスト等)や、サーバ装置30が提供するサービスの種類(ニュース、SNS、天気、時計等)に応じて適切に決定され得る。」

「【図4A】



「【図4B】



「【図4C】



図4Bより、3つの領域210a、210b、210cが横方向に配置されていることが見て取れる。また、図4Cより、2つの領域220a、220bが縦方向に配置されていることが見て取れる。
上記記載より、特に下線部に着目すると、引用文献2には、以下の技術事項(以下、「引用文献2技術事項」という。)が記載されていると認められる。

「 表示装置10と、入力装置20と、サーバ装置30と、表示制御装置100と、を含んで構成される表示システム1であって、
表示装置10は、表示制御装置100の制御によって文字、画像その他のあらゆる情報を表示する装置であり、表示装置10は、ウェアラブルデバイスであり得、表示装置10は、例えばユーザの頭部や腕部等に装着され得、
表示制御装置100の制御によって表示装置10に表示される、文字、画像その他の情報のそれぞれを「アイテム」と称し、
表示制御装置100は、入力装置20で入力された情報に基づいて表示装置10の表示を制御し得、入力装置20は、例えばタッチパネル、キーボード、マウス、カメラ、マイク、センサ等の、ユーザからのあらゆる情報や命令が入力可能な装置で構成され得、
表示制御装置100は、通信部110と、入力部120と、制御部130と、記憶部140と、出力部150と、を含んで構成され、
制御部130は、アイテムを表示装置10へ表示する要求を検知し、その検知に基づいて、アイテムを表示装置10へ表示する際の適切なひな型(そのひな型を「レイアウトパターン」とも称する)を選択し、そのひな型を用いて、アイテムを表示装置10へ表示する制御を実行し、
制御部130は、検知部132と、ひな型選択部134と、表示形態決定部136と、を含んで構成され、
アイテムを表示装置10へ表示する要求を「追加表示要求」とも称し、ユーザが入力装置20を用いて明示的に追加表示要求を入力してもよく、予め定められた時間、日付、曜日になると追加表示要求が発生してもよく、
ユーザによる追加表示要求の入力は、キーボード、マウス、タッチパネル等の入力デバイスで行われてもよく、ユーザのジェスチャや音声等で行われてもよく、例えば入力装置20にユーザのジェスチャを撮像するためのカメラが備えられてもよく、そして検知部132は、入力装置20に備えられたカメラで撮像されたユーザのジェスチャの内容を解析して、どのような追加表示要求がユーザから入力されたかを判断してもよく、また例えば、入力装置20にユーザの発話内容を収音するマイクが備えられてもよく、そして検知部132は、入力装置20に備えられたマイクで収音されたユーザが発話した声の内容を解析することでどのような追加表示要求が入力されたかを判断してもよく、
レイアウトパターン200には、要素として表示領域の数、各表示領域の座標、各表示領域へ表示させるコンテンツ種類(テキスト、リスト、イラスト、静止画像、動画像等の画像、動的なエフェクト、地図、ブラウザ、SNS、またはこれらの組み合わせ等が含まれ得る)などの情報が格納され、表示制御装置100は、アイテムの表示に適したレイアウトパターン200を選択すると、そのレイアウトパターン200にアイテムを当てはめて表示するような表示装置10に信号を送出し、
横方向に配置された3つの主表示領域210a、210b、210cを有するレイアウトパターン200、主表示領域210の右隣に縦方向に配置された2つの副表示領域220a、220bを有するレイアウトパターン200など、レイアウトパターン200は様々なレイアウトを有し得、
例えば、サーバ装置30が提供するサービスがメールやSNSのサービスの場合、自ユーザ宛のメッセージなど追加表示要求として取得してもよく、また例えば、サーバ装置30が天気情報のような所定の間隔で変化し得る情報を提供する場合、表示制御装置100は、その情報を所定の周期でサーバ装置30から取得することで追加表示要求を取得してもよく、
表示装置10に新規に表示されるアイテムが、表示優先度や表示領域要求を有していてもよく、優先度や表示領域を考慮しなければ、その表示しようとするアイテムがユーザにとってさほど重要でない情報であったとしても画面一杯に表示される可能性がある一方、表示しようとするアイテム自体に優先度や表示領域要求を有していると、表示制御装置100は、その表示しようとするアイテムに最適な表示を行うことができ、
レイアウトパターン−1及びレイアウトパターン−2を持ち、レイアウトパターン−1よりレイアウトパターン−2の方が、テキストを表示する領域が大きく、
表示制御装置100は、同一のレイアウトパターンであっても、アイテムを表示する領域の大きさを変化させても良く、
表示制御装置100は、アイテムの優先度を時間の経過とともに連続的に減衰させてもよく、
表示制御装置100は、アイテムが既視状態になると、そのアイテムの優先度を維持したり、上げたりしてもよい、
表示システム1。」

3 引用文献Aについて
(1)引用文献A記載事項
引用文献Aには、図面とともに次の事項が記載されている。

「[0070] 図8は本発明に係る端末装置30の外観図を示し、図9は端末装置30のハードウェア構成を表す機能ブロック図である。図8に示すように、端末装置30の筐体には、表示部と操作部とが設けられている。操作部には、タッチパネル31、操作キー32、ダイヤル操作部33等が含まれる。操作キー32には十字キー32aが含まれる。表示部は、液晶ディスプレイ34を有し、タッチパネル31の下部に位置する構成となっている。本実施形態では図8のような端末装置30を例に挙げているが、本発明は、図8に示すような装置以外にも例えば、携帯電話、PC、PDA、各種アプリケーションを備えたTV等、様々な端末装置上で実施することができる。」

「[0077] 図10は、端末装置30のメニュー表示や動作に関する各種ソフトウェアやプログラム(或いはソフトウェアの一部としてのプログラム)およびデータベース(DB)の構成を示す図である。端末装置30は、メニュー表示や動作に関するソフトウェアやプログラム(或いはソフトウェアの一部としてのプログラム)として、メニュープレイヤ410、メニューマネージャ420、入力切替制御部430、各種アプリケーション440とを有している。また、端末装置30は、データベースとして、GUI共通テンプレートDB451、GUI個別テンプレートDB452、GraphicsDB453、入力動作データDB454とを有している。なお、ソフトウェアやデータベースは、記憶部301に格納?保持されている。
[0078] メニュープレイヤ410は、メニューマネージヤ420から提供されるGUIテンプレートに従って、表示画面上にメニューを表示させる機能を有する。また、メニュープレイヤ410は、ユーザの操作等に基づいてメニューマネージャ420からメニュー表示の表示切替指示を受け付けると、GUIテンプレートにしたがってフォーカス位置を変えて表示させたり、或いは新たなGUIテンプレートを取得してメニュー表示を再構築する等の機能を有する。
[0079] メニューマネージャ420は、GUI共通テンプレートDB451、GUI個別テンプレートDB452、GraphicsDB453から抽出するデータに基づいてGUIテンプレートを生成する機能と、入力切替制御部430により通知される入力操作に関する情報を受け付ける機能と、アプリケーション440へ起動等の指示を出す機能と、メニュープレイヤ410へ生成したGUIテンプレートを供給する機能等を有する。また、メニューマネージャ420は、入力切替制御部430から通知される情報に基づいて、入カユニットの切り替えがあったかどうかを判定する機能を有する。また、入力切替制御部430から通知される情報に基づいて、後述のユーザ動作ステータスデータ(操作状況に関するデータの一例)を作成し、GUI共通テンプレートDB451に含まれるユーザ動作ステータスデータを更新する機能を有する。また、メニューマネージャ420は、GUI共通テンプレートDB451からユーザ動作ステータスデータを取得し、そのデータに基づいてメニュープレイヤ410に表示切替指示を行う機能を有する。なお、メニューマネージャ420は、メニュープレイヤ410の一部として構成されていてもよい。」

「[0113] 図16は、タッチパネル11に対応した「タブ」形式のメニューの一例を示す図である。
[0114] 図16に示す例では、アイコン701、702、703の各々は図14に示すアイコン501、304303とその表示内容は同一であるため個々の説明は省略する。また、アプリアイコン711、712、713の各々はそれぞれ図14に示すアプリアイコン511、512、513とその表示内容及び関連付けられているアプリケーションは同一であるため個々の説明は省略する。また、アプリ情報721、722、723の各々も図14に示すアプリ情報621、622、623とその表示内容が同一であるため個々の説明は省略する。なお、図16に示す例では、アプリアイコン711とアプリ情報721がタブ731内に、アプリアイコン712とアプリ情報722がタブ732内に、アプリアイコン713とアプリ情報723がタブ733内にそれぞれ表示されている。アイコン701、702、703及びタブ731、732、733で表示されている領域はそれぞれ、ユーザがタッチパネル31により選択操作が可能な領域である。
[0115] 図16に示す例では、最上層のアイコン701が選択されてフォーカスが当てられている状態にある。そしてアイコン701の下層のアプリアイコン711、712、713及びアプリ情報721、722、723が画面上に表示されている。ユーザは、タッチパネル31により操作を行う。この状態では、ユーザは、アイコン701、702、703及びタブ731、732、733のいずれをも選択可能である。すなわち、各アイコン、各タブが表示されている領域をタッチすることができる。ユーザがアイコン702或いはアイコン703を選択した場合は、それらにフォーカスが当たると共に、選択されたアイコンの下層のアプリアイコンとアプリ情報がタブと共に表示画面上に表示される。図16に示す状態で、タブ731、732、733のいずれかが選択された場合は、選択されたタブが含むアプリアイコンに関連付けられたアプリケーションが起動する。例えば、タブ731を選択すると、メーラが起動する。」

「[図16]



(2)引用発明A
引用文献Aの[0070]の末文より、引用文献Aには、「各種アプリケーションを備えた」「様々な端末装置上で実施することができる」方法が記載されているといえる。
よって、前記(1)より、引用文献Aには、次の発明(以下、「引用発明A」という。)が記載されていると認められる。

「 各種アプリケーションを備えた様々な端末装置上で実施することができる方法であって、
端末装置30の筐体には、表示部と操作部とが設けられ、操作部には、タッチパネル31、操作キー32、ダイヤル操作部33等が含まれ、表示部は、液晶ディスプレイ34を有し、タッチパネル31の下部に位置する構成となっており、
端末装置30は、メニュー表示や動作に関するプログラムとして、メニュープレイヤ410、メニューマネージャ420、入力切替制御部430、各種アプリケーション440とを有し、
メニュープレイヤ410は、メニューマネージヤ420から提供されるGUIテンプレートに従って、表示画面上にメニューを表示させ、ユーザの操作等に基づいてメニューマネージャ420からメニュー表示の表示切替指示を受け付けると、GUIテンプレートにしたがってフォーカス位置を変えて表示させたり、或いは新たなGUIテンプレートを取得してメニュー表示を再構築する等の機能を有し、
メニューマネージャ420は、GUIテンプレートを生成する機能と、入力切替制御部430により通知される入力操作に関する情報を受け付ける機能と、アプリケーション440へ起動等の指示を出す機能と、メニュープレイヤ410へ生成したGUIテンプレートを供給する機能、入力切替制御部430から通知される情報に基づいて、入カユニットの切り替えがあったかどうかを判定する機能、入力切替制御部430から通知される情報に基づいて、ユーザ動作ステータスデータを更新する機能、ユーザ動作ステータスデータを取得し、そのデータに基づいてメニュープレイヤ410に表示切替指示を行う機能を有し、
タッチパネル11に対応した「タブ」形式のメニューでは、
アプリアイコン711とアプリ情報721がタブ731内に、アプリアイコン712とアプリ情報722がタブ732内に、アプリアイコン713とアプリ情報723がタブ733内にそれぞれ表示され、
アイコン701、702、703及びタブ731、732、733で表示されている領域はそれぞれ、ユーザがタッチパネル31により選択操作が可能な領域であり、
最上層のアイコン701が選択されてフォーカスが当てられている状態(アイコン701の下層のアプリアイコン711、712、713及びアプリ情報721、722、723が画面上に表示されている。)でユーザがアイコン702或いはアイコン703を選択した場合は、それらにフォーカスが当たると共に、選択されたアイコンの下層のアプリアイコンとアプリ情報がタブと共に表示画面上に表示され、
タブ731、732、733のいずれかが選択された場合は、選択されたタブが含むアプリアイコンに関連付けられたアプリケーションが起動する、
方法。」

4 引用文献Bについて
引用文献Bには、図面とともに次の事項が記載されている。

「【0054】また、この実施形態では、「メニュー・オン」ボタン4aを操作する毎に、表示されるメニュー画像が切り替わるものとしたが、一定時間表示されると、自動的に次のメニュー画像に表示が切り替わるようにしてもよい。この場合、上記の場合とは逆に、メニュー画像の表示中に「メニュー・オン」ボタン4aを操作すると、次のメニュー画像への切換えが禁止され、再度「メニュー・オン」ボタン4aを操作すると、この禁止が解除されて、自動的にメニュー画像が切り換わるモードに戻るようにすることもできる。」

5 引用文献Cについて
引用文献Cには、図面とともに次の事項が記載されている。

「【0085】
F.その他の変形例 :
また、多数のメニュー動画12が存在している場合には、当然、ユーザ端末10のメニュー画面上で全てのメニュー動画12を表示することはできず、興味の持てる動画コンテンツ22を選択することも、その分だけ困難となる。こうした点に鑑みて、次のようにして、表示されるメニュー動画12が自動的に切り換わるようにしても良い。
【0086】
図11は、メニュー動画12が自動的に切り換わりながら表示される様子を示した説明図である。図11に示した例では、メニュー動画「a」から「l」までの12個のメニュー動画12が存在しているが、メニュー画面の表示領域には6個のメニュー動画しか表示することができない。例えば図11(a)には、メニュー動画「c」から「h」のメニュー動画12だけが表示領域に表示されている様子が示されている。図中に実線で表されたメニュー動画12はメニュー画面に表示中であることを示しており、破線で表されたメニュー動画12はメニュー画面に表示されていないことを示している。この状態で所定時間が経過すると、図11(b)に示す状態、すなわちメニュー動画「e」から「j」のメニュー動画12が表示されている状態に自動的に切り換わるようにしても良い。更に所定時間が経過すると、今度は、メニュー動画「g」から「l」のメニュー動画12が表示されている状態に自動的に切り換わる。
【0087】
このようにすれば、多数のメニュー動画12が存在する場合に、ユーザがメニュー画面の表示を切り換えなくても自動的に表示が切り換わるので、興味の持てる動画コンテンツ22を容易に選択することが可能となる。」

第6 当審拒絶理由についての判断
1 本願発明1について
(1)対比
本願発明1と引用発明とを対比する。

ア 引用発明の「ウェアラブルコンピューティングデバイス10」(略称では「ウェアラブル10」)は、本願発明1の「端末装置」に相当し、引用発明の「ユーザインターフェースデバイスUID)12」は、「ディスプレイデバイスを含み」、「ウェアラブル10」の「出力機能を提供」するものであるから、本願発明1の「端末装置のスクリーン」に相当する。

イ 引用発明の「ウェアラブル10」は、「アプリケーションの機能を関連付け」された「コンテンツカード」を表示するものであるから、当該「ウェアラブル10」が実施する一連の方法は、後述する相違点を除き、本願発明1における「アプリケーション機能情報表示方法」に相当する。

ウ 引用発明の「コンテンツカード」は、「ウェアラブル10で実行されるアプリケーションの機能を関連付け」されるものであるから、本願発明1の「アプリケーション機能に関連づけられたコンテンツカード」に相当する。
そして、引用発明の「ウェアラブル10」が、「第1のコンテンツカード(例えば、時計アプリケーションに関連する情報を含む)」や「第2のコンテンツカード(例えば、天気アプリケーションに関連する天気情報を含む)」を「表示する」ことは、本願発明1の「端末装置のスクリーンに、アプリケーション機能に関連づけられたコンテンツカードを直接表示する」ことに相当する。
また、引用発明は、「ウェアラブル10のユーザ」が、「ウェアラブル10で実行されるテキストベースのメッセージングサービスアプリケーションに関連する情報をそれぞれ含むコンテンツカード」である「コンテンツカード16A」から、「メッセージに関連するコンテンツを閲覧し、返信メッセージを作成することができ」るものであり、「メッセージに関連するコンテンツを閲覧し、返信メッセージを作成すること」は、「ウェアラブル10」が「ユーザ」に「メッセージングサービスアプリケーション」の機能を直接操作させるものであるといえるから、引用発明は、本願発明1の「端末装置のスクリーンに」「前記コンテンツカードを直接表示して前記コンテンツカードで前記アプリケーション機能を直接操作させるステップ」との構成を備える。
よって、引用発明は、本願発明1の「端末装置のスクリーンに、アプリケーション機能に関連づけられたコンテンツカードを直接表示するか、又は前記コンテンツカードを直接表示して前記コンテンツカードで前記アプリケーション機能を直接操作させるステップ」を備える。

エ 引用発明は、「モーションセンサ15は、ウェアラブル10に関連する動きの指標(例えば、動きを表すデータ)を検出するように構成された1つまたは複数のモーションセンサまたは入力デバイスを表し」、「アタッチメントデバイス17を装着している間に、ユーザが手首をひねったり、腕を動かしたりすると、モーションセンサ15は、動きの間に生成される生の動きデータを動き検出モジュール22に出力してもよく」、「動き検出モジュール22は、モーションセンサ15によって生成されたモーションセンサデータを取得し」、「モーションセンサデータに基づいて、ウェアラブル10がいつ、どのように、どの方向に動いているかを決定」するという構成を備えている。
当該構成において、「ユーザが手首をひねったり、腕を動かしたり」した場合、すなわちユーザが肢体を動かした場合に、「モーションセンサ15」及び「動き検出モジュール22」によって検出される情報は、本願発明1の「ユーザーの肢体運動軌跡」に相当し、当該検出処理は、本願発明1の「ユーザーの肢体運動軌跡を検出するステップ」に相当する。

オ 引用発明は、「動き検出モジュール22は、動き検出モジュール22が、予め定義された動きのうちの1つ以上に少なくとも近似的に対応するモーションセンサ15から得られた動きデータを識別し」、「UIモジュール20は、動きに対応するコンテンツカード16の配置を選択してもよく、UIモジュール20は、UID12に、その選択された、対応する配置のコンテンツカード16の視覚的スタックを表示させてもよく」、「ウェアラブル10が、コンテンツカードの視覚的スタックから第1のコンテンツカード(例えば、時計アプリケーションに関連する情報を含む)のみを表示」し、「動きを検出した後、ウェアラブル10は、コンテンツカードの視覚的スタックから第2のコンテンツカード(例えば、天気アプリケーションに関連する天気情報を含む)のみを表示する」という構成を備えている。
ここで、引用発明の、「予め定義された動きのうちの1つ以上」に「少なくとも近似的に対応する」ような「動きデータ」が識別された場合に、「動きに対応するコンテンツカード16の配置を選択して」「表示」させることは、本願発明1の「予め設定された切り替え条件を満足することが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップ」に相当する。
また、当該構成における「予め定義された動き」は、コンテンツカードの表示の変更を引き起こす契機となるものであるから、本願発明1の「予め設定された切り替えトリガー軌跡」に相当し、「予め定義された動きのうちの1つ以上に少なくとも近似的に対応するモーションセンサ15から得られた動きデータを識別」することは、「予め定義された動き」にマッチングする「動きデータ」を識別しているといえるから、本願発明1の、「前記肢体運動軌跡が予め設定された切り替えトリガー軌跡とマッチングすること」の「検出」に相当する。
そして、「UIモジュール20」が、「動きに対応するコンテンツカード16の配置を選択し」、「UID12に、その選択された、対応する配置のコンテンツカード16の視覚的スタックを表示させ」ることは、「動きを検出」した場合に、表示されるコンテンツカードを「第1のコンテンツカード」から「第2のコンテンツカード」に切り替えることを含むから、本願発明1の「前記肢体運動軌跡が予め設定された切り替えトリガー軌跡とマッチングすることが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップ」に相当する。

(2)一致点、相違点
前記(1)より、本願発明1と引用発明とは、次の点において一致ないし相違する。

[一致点]
「 端末装置のスクリーンに、アプリケーション機能に関連づけられたコンテンツカードを直接表示するか、又は前記コンテンツカードを直接表示して前記コンテンツカードで前記アプリケーション機能を直接操作させるステップと、
予め設定された切り替え条件を満足することが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップと、
を含み、
端末装置のスクリーンにアプリケーション機能に関連づけられたコンテンツカードを表示するステップは、
予め設定された切り替え条件を満足することが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップは、
ユーザーの肢体運動軌跡を検出するステップと、
前記肢体運動軌跡が予め設定された切り替えトリガー軌跡とマッチングすることが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップと、
を含む、
ことを特徴とするアプリケーション機能情報表示方法。」

[相違点]
<相違点1>
本願発明1は、
「 端末装置のスクリーンにアプリケーション機能に関連づけられたコンテンツカードを表示するステップは、
予め設定された表示パラメータを取得するステップと、
前記表示パラメータに基づいて、端末装置のスクリーンにアプリケーション機能に関連づけられたコンテンツカードを表示するステップと、
を含み、
前記表示パラメータは、1つの画面に表示されるカードの数及び表示サイズを含み、
前記1つの画面に表示されるカードの数が1より大きい場合に、前記表示パラメータは、カード配置方式をさらに含み、
前記カード配置方式は、横方向配置、縦方向配置、横方向と縦方向との混合配置、又は環状配置を含み」
との構成を備えるのに対し、引用発明は、当該構成を具体的に特定していない点。

<相違点2>
本願発明1は、
「 端末装置のスクリーンにアプリケーション機能に関連づけられたコンテンツカードを表示する前に、
ユーザーの嗜好特徴を取得するステップと、
前記嗜好特徴に基づいて、前記スクリーンの各画面に表示されるアプリケーション機能タイプ、及び/又は、表示順番を設定するステップと、
をさらに含み、
ユーザーの嗜好特徴を取得するステップは、
ユーザーのアプリケーションカスタマイズコンテンツに基づいてユーザーの嗜好特徴を取得するステップ」
との構成を含むのに対し、引用発明は、当該構成を具体的に特定していない点。

(3)相違点についての判断
事案に鑑みて、上記相違点2について先に検討する。
引用文献2技術事項は、「表示装置10に新規に表示されるアイテムが、表示優先度や表示領域要求を有していてもよく、優先度や表示領域を考慮しなければ、その表示しようとするアイテムがユーザにとってさほど重要でない情報であったとしても画面一杯に表示される可能性がある一方、表示しようとするアイテム自体に優先度や表示領域要求を有していると、表示制御装置100は、その表示しようとするアイテムに最適な表示を行うことができ」るものであり、ユーザにとっての重要性を考慮した、表示されるアイテム(コンテンツ)の表示優先度を予め取得しておくことを示唆するものといえる。
また、ニュースサイト又はポータルサイトにおいて、ユーザの嗜好情報を予め取得しておき、当該嗜好情報に基づいてコンテンツの表示を制御することは本願優先日前における周知技術である。
しかしながら、引用文献2技術事項における示唆及び前記周知技術はいずれも、「アプリケーション機能に関連づけられたコンテンツカード」を表示対象とするものではなく、また、そのような「コンテンツカード」の表示に関して、事前に「ユーザーのアプリケーションカスタマイズコンテンツに基づいてユーザーの嗜好特徴を取得する」こと、及び、「前記嗜好特徴に基づいて、前記スクリーンの各画面に表示されるアプリケーション機能タイプ、及び/又は、表示順番を設定する」ことまでは、本願優先日前における周知技術とは認められない。
したがって、相違点1について判断するまでもなく、本願発明1は、当業者であっても引用文献1及び2に記載された発明に基いて容易に発明をすることができたものであるとはいえない。

2 本願発明2ないし11について
本願発明2ないし11は、本願発明1と同一の構成を備えるものであるから、本願発明1と同じ理由により、当業者であっても引用文献1及び2に記載された発明に基いて容易に発明をすることができたものであるとはいえない。

3 本願発明12について
本願発明12は、本願発明1に対応する「アプリケーション機能情報表示装置」の発明であり、「ユーザーの嗜好特徴を取得するための第1の取得モジュールであって、ユーザーのアプリケーションカスタマイズコンテンツに基づいてユーザーの嗜好特徴を取得する第1の取得モジュール」及び「嗜好特徴に基づいてスクリーンの各画面に表示されるアプリケーション機能タイプ、及び/又は、表示順番を設定する設定モジュール」という、上記相違点2に係る本願発明1の構成に対応する技術事項を有するものである。
よって、本願発明12は、本願発明1と同じ理由により、当業者であっても引用文献1及び2に記載された発明に基いて容易に発明をすることができたものであるとはいえない。

4 本願発明13について
本願発明13は、本願発明1ないし11のいずれかを実現する「端末装置」の発明であり、上記相違点2に係る本願発明1の構成を含むものである。
よって、本願発明13は、本願発明1と同じ理由により、当業者であっても引用文献1及び2に記載された発明に基いて容易に発明をすることができたものであるとはいえない。

5 本願発明14について
本願発明14は、本願発明13と同一の構成を備えるものであるから、本願発明13と同じ理由により、当業者であっても引用文献1及び2に記載された発明に基いて容易に発明をすることができたものであるとはいえない。

6 本願発明15及び16について
本願発明15は、本願発明1ないし11のいずれかを実現する「コンピュータプログラム」の発明であり、本願発明16は、本願発明1ないし11のいずれかを実現する「コンピュータプログラム」が記憶されている「非一時的なコンピュータ読み取り可能な記憶媒体」の発明であり、いずれの発明も、上記相違点2に係る本願発明1の構成を含むものである。
よって、本願発明15及び16は、本願発明1と同じ理由により、当業者であっても引用文献1及び2に記載された発明に基いて容易に発明をすることができたものであるとはいえない。

第7 原査定についての判断
1 本願発明1について
(1)対比
本願発明1と引用発明Aとを対比する。

ア 引用発明Aの「端末装置30」は、本願発明1の「端末装置」に相当し、また、引用発明Aの「メニュー」が表示される「表示画面」は、本願発明1の「端末装置のスクリーン」に相当する。

イ 引用発明Aの「タブ」形式のメニューにおいて、「タブ」(「タブ731」、「タブ732」、「タブ733」)は、その中に「アプリ情報」(「アプリ情報721」、「アプリ情報722」、「アプリ情報723」)と「アプリアイコン」(「アプリアイコン711」、「アプリアイコン712」、「アプリアイコン713」)とを含むものである。ここで、引用文献Aの「アプリ情報」は、「コンテンツ」といい得るものであり、「タブ」は、引用文献Aの[図16]を参酌すれば、矩形の表示領域であることから、「カード」といい得るものである。
また、引用発明Aは「タブ731、732、733のいずれかが選択された場合は、選択されたタブが含むアプリアイコンに関連付けられたアプリケーションが起動する」ものであることから、「タブ」は、「アプリケーション機能に関連づけれた」ものといえる。
そうすると、引用発明Aの「タブ」は、本願発明1の「アプリケーション機能に関連づけられたコンテンツカード」に相当する。

ウ 引用発明Aの「方法」は、「端末装置30」の「メニュープレイヤ410」と「メニューマネージャ420」とが協働して、「タブ」形式のメニューを表示するものである。
そして、前記イを参酌すれば、「タブ」に含まれる「アプリ情報」及び「アプリアイコン」は、「アプリケーション機能情報」といい得るものであるから、
よって、引用発明Aにおいて、「端末装置30」が「タブ」形式のメニューを表示するために「メニュープレイヤ410」と「メニューマネージャ420」が行う一連の処理は、後述する相違点を除いて本願発明1の「アプリケーション機能情報表示方法」に相当するといえる。

エ 引用発明Aにおいて、「タブ」は、表示画面上に「直接表示」されているといえる。
また、引用発明Aにおいて、「タブ731、732、733のいずれかが選択された場合は、選択されたタブが含むアプリアイコンに関連付けられたアプリケーションが起動する」ことは、「端末装置30」が、ユーザに、「アプリケーション機能を直接操作させる」ことに等しい。
よって、前記アないしウを参酌すれば、引用発明Aは、本願発明1の「端末装置のスクリーンに、アプリケーション機能に関連づけられたコンテンツカードを直接表示するか、又は前記コンテンツカードを直接表示して前記コンテンツカードで前記アプリケーション機能を直接操作させるステップ」を備える。

オ 引用発明Aは、「最上層のアイコン701が選択されてフォーカスが当てられている状態(アイコン701の下層のアプリアイコン711、712、713及びアプリ情報721、722、723が画面上に表示されている。)でユーザがアイコン702或いはアイコン703を選択した場合は、それらにフォーカスが当たると共に、選択されたアイコンの下層のアプリアイコンとアプリ情報がタブと共に表示画面上に表示され」るものであることから、「アイコン701」が選択されている状態で、「アイコン702」又は「アイコン703」を選択すると、現在表示されている「タブ」(「タブ731、732、733」)から、選択された「アイコン702」又は「アイコン703」の下層の「アプリアイコン」及び「アプリ情報」を含む「タブ」に切り替わるものといえる。
そして、引用発明Aにおいて、「アイコン702」又は「アイコン703」が選択されることは、「予め設定された切り替え条件」といい得るものであり、「ユーザの操作等に基づいてメニューマネージャ420からメニュー表示の表示切替指示を受け付けると、GUIテンプレートにしたがってフォーカス位置を変えて表示させ」る機能を備える「メニュープレイヤ410」は、前記選択の操作が検出された場合に、「タブ」を切り替える操作を行うものといえる。
よって、前記アないしウを参酌すれば、引用発明Aは、本願発明1の「予め設定された切り替え条件を満足することが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップ」を備える。

(2)一致点、相違点
前記(1)より、本願発明1と引用発明Aとは、次の点において一致ないし相違する。

[一致点]
「 端末装置のスクリーンに、アプリケーション機能に関連づけられたコンテンツカードを直接表示するか、又は前記コンテンツカードを直接表示して前記コンテンツカードで前記アプリケーション機能を直接操作させるステップと、
予め設定された切り替え条件を満足することが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップと、
を含む、
ことを特徴とするアプリケーション機能情報表示方法。」

[相違点]
<相違点4>
本願発明1は、「コンテンツカード」の表示が、「取得」された「予め設定された表示パラメータ」に基づいており、当該「表示パラメータ」は、「1つの画面に表示されるカードの数及び表示サイズ」を含み、「1つの画面に表示されるカードの数が1より大きい場合に」「横方向配置、縦方向配置、横方向と縦方向との混合配置、又は環状配置を含」む「カード配置方式」をさらに含むのに対し、引用発明Aでは、「予め設定された表示パラメータ」を用いることが特定されておらず、「1つの画面に表示されるカードの数及び表示サイズ」並びに「横方向配置、縦方向配置、横方向と縦方向との混合配置、又は環状配置を含」む「カード配置方式」についても特定されていない点。

<相違点5>
本願発明1は、
「 予め設定された切り替え条件を満足することが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップは、
ユーザーの肢体運動軌跡を検出するステップと、
前記肢体運動軌跡が予め設定された切り替えトリガー軌跡とマッチングすることが検出された場合に、前記スクリーンに現在表示されているコンテンツカードの切り替え操作を行うステップと、
を含み」
との構成を含むのに対し、引用発明Aは、当該構成を具体的に特定していない点。

<相違点6>
本願発明1は、
「 端末装置のスクリーンにアプリケーション機能に関連づけられたコンテンツカードを表示する前に、
ユーザーの嗜好特徴を取得するステップと、
前記嗜好特徴に基づいて、前記スクリーンの各画面に表示されるアプリケーション機能タイプ、及び/又は、表示順番を設定するステップと、
をさらに含み、
ユーザーの嗜好特徴を取得するステップは、
ユーザーのアプリケーションカスタマイズコンテンツに基づいてユーザーの嗜好特徴を取得するステップ」
との構成を含むのに対し、引用発明Aは、当該構成を具体的に特定していない点。

(3)理由1(新規性欠如)についての判断
前記(2)で挙げた相違点のうち、少なくとも相違点6は、形式的なものではなく、実質的な相違点であるから、本願発明1は、引用発明Aには該当しない。

(4)理由2(進歩性欠如)についての判断
事案に鑑みて、上記相違点6について先に検討する。
相違点6に係る本願発明1の構成は、引用文献B及びCのいずれにも記載されていない。
また、前記第6の1(3)で述べたように、前記周知技術は、「アプリケーション機能に関連づけられたコンテンツカード」を表示対象とするものではなく、また、そのような「コンテンツカード」の表示に関して、事前に「ユーザーのアプリケーションカスタマイズコンテンツに基づいてユーザーの嗜好特徴を取得する」こと、及び、「前記嗜好特徴に基づいて、前記スクリーンの各画面に表示されるアプリケーション機能タイプ、及び/又は、表示順番を設定する」ことまでは、本願優先日前における周知技術とは認められない。
したがって、相違点4及び5について判断するまでもなく、本願発明1は、当業者であっても引用文献AないしCに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

2 本願発明2ないし11について
本願発明2ないし11は、本願発明1と同一の構成を備えるものであるから、本願発明1と同じ理由により、引用発明Aには該当せず、また、当業者であっても引用文献AないしCに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

3 本願発明12について
本願発明12は、本願発明1に対応する「アプリケーション機能情報表示装置」の発明であり、上記相違点6に係る本願発明1の構成に対応する技術事項を有するものである。
よって、本願発明12は、本願発明1と同じ理由により、引用発明Aには該当せず、また、当業者であっても引用文献AないしCに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

4 本願発明13について
本願発明13は、本願発明1ないし11のいずれかを実現する「端末装置」の発明であり、上記相違点6に係る本願発明1の構成を含むものである。
よって、本願発明13は、本願発明1と同じ理由により、引用発明Aには該当せず、また、当業者であっても引用文献AないしCに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

5 本願発明14について
本願発明14は、本願発明13と同一の構成を備えるものであるから、本願発明13と同じ理由により、引用発明Aには該当せず、また、当業者であっても引用文献AないしCに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

6 本願発明15及び16について
本願発明15は、本願発明1ないし11のいずれかを実現する「コンピュータプログラム」の発明であり、本願発明16は、本願発明1ないし11のいずれかを実現する「コンピュータプログラム」が記憶されている「非一時的なコンピュータ読み取り可能な記憶媒体」の発明であり、いずれの発明も、上記相違点6に係る本願発明1の構成を含むものである。
よって、本願発明15及び16は、本願発明1と同じ理由により、引用発明Aには該当せず、また、当業者であっても引用文献AないしCに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

第8 むすび
以上のとおり、原査定の理由によって、本願を拒絶することはできない。
他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2022-03-09 
出願番号 P2018-177824
審決分類 P 1 8・ 121- WY (G06F)
最終処分 01   成立
特許庁審判長 ▲吉▼田 耕一
特許庁審判官 林 毅
野崎 大進
発明の名称 アプリケーション機能情報表示方法、装置、及び端末装置  
代理人 アクシス国際特許業務法人  
代理人 アクシス国際特許業務法人  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ