• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 全部申し立て 2項進歩性  A61B
管理番号 1375892
異議申立番号 異議2021-700349  
総通号数 260 
発行国 日本国特許庁(JP) 
公報種別 特許決定公報 
発行日 2021-08-27 
種別 異議の決定 
異議申立日 2021-04-19 
確定日 2021-07-12 
異議申立件数
事件の表示 特許第6774136号発明「自動視力診断の方法およびシステム」の特許異議申立事件について、次のとおり決定する。 
結論 特許第6774136号の請求項1ないし21に係る特許を維持する。 
理由 第1 手続の経緯
特許第6774136号の請求項1ないし21に係る特許についての出願は、2016年(平成28年)1月20日(パリ条約による優先権主張外国庁受理 2015年1月20日 アメリカ合衆国)を国際出願日とする出願であって、令和2年10月6日にその特許権の設定登録がされ、同年10月21日に特許掲載公報が発行された。その後、その特許に対し、令和3年4月19日に特許異議申立人ノバサイト リミテッド(以下、「申立人」という。)は、特許異議の申立てを行い、同年5月13日に申立人は上申書を提出した。

第2 本件発明
本件特許の請求項1ないし21に係る発明(以下、それぞれ請求項の番号に従って「本件発明1」などという。)は、特許請求の範囲の請求項1ないし21に記載された事項により特定される、次のとおりのものである。

「【請求項1】
視力診断のためのシステム(200)であって、
眼の一部分の運動を追跡するように構成された少なくとも1つの眼球運動追跡ユニット(210)と、
視覚刺激のための少なくとも1つのスクリーン(220)と、
各々の眼の視野(FOV)を別々に制御可能に遮断するように構成されたシャッターユニット(230)と、
を備える視力検査ユニット(205)と、
コントローラ(240)であって、
a.患者に対して、第1の視覚刺激を、前記少なくとも1つのスクリーン(220)上の第1の位置に表示し、
b.前記シャッターユニットに、患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ、
c.前記少なくとも1つの眼球運動追跡ユニット(210)から、患者の第2の眼の運動を示す第1の信号を受け取り、
d.患者に対して、第2の視覚刺激を、前記少なくとも1つのスクリーン(220)上の前記第1の位置とは異なる、第2の位置に表示し、
e.前記シャッターユニット(230)に、患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ、
f.前記少なくとも1つの眼球運動追跡ユニット(210)から、患者の第1の眼の運動を示す第2の信号を受け取り、
g.前記受け取った第1および第2の信号に基づいて患者の視力を診断する、
ように構成された、コントローラ(240)と、
を備えるシステム。
【請求項2】
第1の眼の視覚刺激のための第1のスクリーン(220)と、
第2の眼の視覚刺激のための第2のスクリーン(220)と、
をさらに備え、
前記コントローラ(240)は、
患者に対して第1の視覚刺激を前記第1のスクリーン(220)上に表示し、
患者に対して第2の視覚刺激を前記第2のスクリーン(220)上に表示する、
ように構成される、請求項1に記載の視力診断のためのシステム。
【請求項3】
前記コントローラ(240)は、
前記操作a-fを順に繰り返し、
前記受け取った第1および第2の信号に基づいて患者の視力を診断する、
ように構成され、
前記第1および第2の視覚刺激の表示は、前記少なくとも1つのスクリーン(220)上の任意の位置である、請求項1又は2に記載の視力診断のためのシステム。
【請求項4】
前記視覚刺激はテラー・カードである、請求項1?3のいずれか1項に記載の視力診断のためのシステム。
【請求項5】
眼球運動を示す前記信号は、前記少なくとも1つの眼球運動追跡ユニット(210)の中に含まれる、眼の瞳孔からの赤外反射を検出するカメラから受け取られる、請求項1?4のいずれか1項に記載の視力診断のためのシステム。
【請求項6】
眼球運動を示す前記信号は、眼の近くに配置された少なくとも1つの電極から受け取られる、請求項1?4のいずれか1項に記載の視力診断のためのシステム。
【請求項7】
視覚刺激のための前記スクリーンは、白黒のピクセルを表示するように構成されたスクリーンである、請求項1?6のいずれか1項に記載の視力診断のためのシステム。
【請求項8】
前記コントローラ(240)は、患者に対して動画を表示するようにさらに構成される、請求項1?7のいずれか1項に記載の視力診断のためのシステム。
【請求項9】
前記視力検査ユニットは、患者によって装着されるように構成された単一のハウジングの中に含まれる、請求項1?8のいずれか1項に記載の視力診断のためのシステム。
【請求項10】
前記少なくとも1つの眼球運動追跡ユニット(210)の中に含まれるセンサは、前記スクリーンの周辺区域内に配置される、請求項1?8のいずれか1項に記載の視力診断のためのシステム。
【請求項11】
前記シャッターユニットは、各々のレンズのFOVを別々に制御可能に遮断するように構成された遮蔽ガラスである、請求項1?10のいずれか1項に記載の視力診断のためのシステム。
【請求項12】
前記第1および第2の視覚刺激は、互いから所定の距離に配置された同じ画像であり、
前記コントローラ(240)は、
前記シャッターユニットに、患者の第1および第2の眼のFOVを交互に遮断させながら、同じ前記第1および第2の視覚刺激を交互に表示し、
第1の眼および第2の眼の両方が、前記少なくとも1つのスクリーン(220)上の前記第1および第2の視覚刺激の間に位置する同じ位置を凝視するかどうか判断する、
ように、さらに構成された、請求項1に記載の視力診断のためのシステム。
【請求項13】
前記コントローラ(240)は、前記眼球運動追跡ユニット(210)から受け取った信号に基づいて、患者の少なくとも1つの眼の病状を診断するように、さらに構成された、請求項1?12のいずれか1項に記載の視力診断のためのシステム。
【請求項14】
カメラと、
検影器(Retinoscope)と、
をさらに備え、
前記コントローラ(240)は、前記カメラから受け取った信号に基づいて患者の少なくとも1つの眼の病状を診断するように、さらに構成された、請求項1?13のいずれか1項に記載の視力診断のためのシステム。
【請求項15】
視力診断のためのシステムを制御するコントローラ(240)であって、
プロセッサと、
前記プロセッサによって実行されるとき、前記コントローラ(240)に、
患者に対して第1の視覚刺激を、少なくとも1つのスクリーン(220)上の第1の位置に表示させ、
シャッターユニットに、患者の第2の眼のFOVを遮断させずに第1の眼の視野(FOV)を遮断させ、
少なくとも1つの眼球運動追跡ユニット(210)から患者の第2の眼球運動を示す第1の信号を受け取らせ、
患者に対して第2の視覚刺激を、前記第1の位置とは異なる、前記少なくとも1つのスクリーン(220)上の第2の位置に表示させ、
前記シャッターユニット(230)に、患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ、
前記少なくとも1つの眼球運動追跡ユニット(210)から、患者の第1の眼の運動を示す第2の信号を受け取らせ、
前記受け取った第1および第2の信号に基づいて患者の視力を診断させる、
命令をストアする不揮発性メモリと、
を備える、コントローラ。
【請求項16】
前記命令は、前記コントローラ(240)に、さらに、
患者に対して第1の視覚刺激を第1のスクリーン上に表示させ、
患者に対して第2の視覚刺激を第2のスクリーン上に表示させる、
請求項15に記載の視力診断のためのシステムを制御する、コントローラ。
【請求項17】
前記命令は、前記コントローラ(240)にさらに、患者に対して動画を表示させる、請求項15又は16に記載の視力診断のためのシステムを制御する、コントローラ。
【請求項18】
視力診断のためのシステムであって、
眼の一部分の運動を追跡するように構成された少なくとも1つの眼球運動追跡ユニットと、
視覚刺激のための少なくとも1つのスクリーンと、
各々の眼の視野(FOV)を別々に制御可能に遮断するように構成されたシャッターユニットと、
を備える視力検査ユニットと、
コントローラであって、
a.患者に対して、第1のコントラスト感度レベルを有する第1の視覚刺激を、前記少なくとも1つのスクリーン上に表示し、
b.前記シャッターユニットに、患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ、
c.前記少なくとも1つの眼球運動追跡ユニットから、患者の第2の眼の運動を示す第1の信号を受け取り、
d.患者に対して、前記第1のコントラスト感度レベルとは異なる第2のコントラスト感度レベルを有する第2の視覚刺激を、前記少なくとも1つのスクリーン上に表示し、
e.前記シャッターユニットに、患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ、
f.前記少なくとも1つの眼球運動追跡ユニットから、患者の第1の眼の運動を示す第2の信号を受け取り、
g.前記受け取った第1および第2の信号に基づいて患者の視力を診断する、
ように構成された、コントローラと、
を備えるシステム。
【請求項19】
前記コントローラ(240)は、それぞれが特定の視覚刺激の表示に応答する眼球運動に関連する少なくとも前記第1および第2の信号を、データベースに予めストアされた信号と比較することにより患者の視力を診断する、請求項1?14のいずれか1項に記載の視力診断のためのシステム(200)。
【請求項20】
前記コントローラ(240)は、それぞれが特定の視覚刺激の表示に応答する眼球運動に関連する少なくとも前記第1および第2の信号を、データベースに予めストアされた信号と比較することにより患者の視力を診断するように、さらに構成された、請求項15?17のいずれか1項に記載の視力診断のためのシステムを制御するコントローラ。
【請求項21】
前記コントローラ(240)は、それぞれが特定の視覚刺激の表示に応答する眼球運動に関連する少なくとも前記第1および第2の信号を、データベースに予めストアされた信号と比較することにより患者の視力を診断する、請求項18に記載の視力診断のためのシステム(200)。」

第3 申立理由の概要
申立人は、主たる証拠として甲第1号証及び従たる証拠として甲第2ないし5号証を提出し、本件発明1ないし18は、甲第1ないし3号証に記載された発明に基づいてその発明の属する技術の分野における通常の知識を有する者(以下「当業者」という。)が容易に発明をすることができたものであり、本件発明19ないし21は、甲第1ないし5号証に記載された発明に基づいて当業者が容易に発明をすることができたものであって、請求項1ないし21に係る特許は特許法第29条第2項の規定に違反してされたものであるから、同法第113条第2号に該当し、取り消されるべきものである旨主張する。

甲第1号証:米国特許出願公開第2009/0153796号明細書(以下「甲1」という。)
甲第2号証:米国特許出願公開第2013/0155376号明細書(以下「甲2」という。)
甲第3号証:国際公開第2012/160741号(以下「甲3」という。)
甲第4号証:Pete R. Jones, et al.,“Automated Measurement of Resolution Acuity in Infants Using Remote Eye-Tracking”,Investigative Ophthalmology Visual Science,2014,Vol.55,No.12,p.8102-8110(以下「甲4」という。)
甲第5号証:Christopher D. McMurrough, et al.,“A Dataset for Point of Gaze Detection using Head Poses and Eye Images”,Journal on Multimodal User Interfaces,2013,Vol.7,p.207-215(以下「甲5」という。)

第4 各甲号証の記載
1 甲1について
(1)被験体の視力又は眼を検査、診断又は治療するための多機能検眼眼科システムとそのための方法論に関する文献である甲1には、以下の記載がある(下線は当審で付加した。以下同様。)。
(甲1-ア)「The Multi-Functional Optometric-Ophthalmic System
[0083] According to a main aspect of the present invention, there is provision of a multi-functional optometric-ophthalmic system for testing, diagnosing, or treating, vision or eyes of a subject. Referring now to the drawings, FIG. 1 is a block diagram illustrating an exemplary preferred embodiment of the system, herein, generally referred to as multi-functional optometric-ophthalmic system 10, and main components thereof, for testing, diagnosing, or treating, vision or eyes of a subject, herein, generally referred to as subject 12, by an operator, herein, generally referred to as operator 15. FIG. 2 is a schematic diagram illustrating an exemplary preferred embodiment of implementing multi-functional optometric-ophthalmic system 10, for testing, diagnosing, or treating, vision or eyes of subject 12, by operator 15.
[0084] As shown in FIGS. 1 and 2, multi-functional optometric-ophthalmic system 10, for testing, diagnosing, or treating, vision or eyes of a subject 12, of the present invention, includes the following main components: (a) a head mountable unit 14, and (b) a central controlling and processing unit 16. Head mountable unit 14 includes the following main components: (i) a head mounting assembly 18; and (ii) at least one near eye module assembly 20, herein, also referred to as an NEM assembly (NEMa) 20, where FIG. 1 shows head mountable unit 14 including two near eye module assemblies, i.e., near eye module assembly (NEMa) 20a and near eye module assembly (NEMa) 20b.
[0085] Head mountable unit 14, preferably, includes at least one multi-axis moving and positioning assembly 22, herein, also referred to as MMP assembly (MMP) 22, where FIG. 1 shows head mountable unit 14 including four MMP assemblies, i.e., MMP assembly (MMPa) 22a, MMP assembly (MMPa) 22b, MMP assembly (MMPa) 26a, and MMP assembly (MMPa) 26b.
[0086] Head mountable unit 14, preferably, includes at least one secondary fixation pattern assembly 24, herein, also referred to as SFP assembly (SFPa) 24, where FIG. 1 shows head mountable unit 14 including two SFP assemblies, i.e., SFP assembly (SFPa) 24a and SFP assembly (SFPa) 24b.
[0087] Head mountable unit 14, preferably, includes at least one fixed imaging assembly 28, where FIG. 1 shows head mountable unit 14 including two fixed imaging assemblies, i.e., fixed imaging assembly 28a and fixed imaging assembly 28b.
[0088] Head mountable unit 14, preferably, includes an analog electronics assembly 30, herein, also referred to as AE assembly (AEa) 30.
[0089] Head mountable unit 14, preferably, includes a display driver assembly 32, herein, also referred to as DD assembly (DDa) 32.
[0090] Head mountable unit 14, optionally, includes any number or combination of the following additional (optional) components: a local controlling and processing assembly 34, herein, also referred to as LCP assembly (LCPa) 34; a digital signal processing assembly 36, herein, also referred to as DSP assembly (DSPa) 36; an audio means assembly 38, herein, also referred to as AM assembly (AMa) 38; a power supply assembly 40, herein, also referred to as PS assembly (PSa) 40; a position sensor assembly 42; a sensoric electrodes assembly 44; and a motoric electrodes assembly 46.
[0091] Central controlling and processing unit 16, preferably, includes any number or combination of the following components: a control assembly 50; an operator input assembly 52; a display assembly 54; a subject input assembly 56; a communication interface assembly 58, herein, also referred to as CI assembly (CIa) 58; and a power supply assembly 60, herein, also referred to as PS assembly (PSa) 60.」
(当審訳:多機能検眼眼科システム
[0083] 本発明の主な態様によれば、被験体の視力又は眼を検査、診断又は治療するための多機能検眼眼科システムが提供される。ここで図面を参照すると、図1は、本明細書では一般的に多機能検眼眼科システム10と呼ばれるシステムとその主要コンポーネントの例示的な好ましい実施形態を示すブロック図であり、本明細書では一般的に被験体12と呼ばれる被験体の視力又は眼を検査、診断又は治療するために、本明細書では一般に操作者15と呼ばれる操作者によって実行される。図2は、操作者15によって被検者12の視力又は眼を検査、診断又は治療するための、検眼眼科システム10の実施するための例示的な好ましい実施形態を示す概略図である。
[0084] 図1及び図2に示すように、本発明の被験者12の視力又は眼を検査、診断又は治療するための多機能検眼眼科システム10は、以下の主要構成要素を含む。 (a)頭部装着可能ユニット14と、(b)中央制御処理ユニット16。頭部装着可能ユニット14は、以下の主要な構成要素を含む。(i)頭部装着アセンブリ18と(ii)本明細書ではNEMアセンブリ(NEMa)20とも呼ばれる少なくとも1つのニアアイモジュールアセンブリ20。ここで、図1は2つのニアアイモジュールアセンブリ、すなわちニアアイモジュールアセンブリ(NEMa)20a及びニアアイモジュールアセンブリ(NEMa)20bを含む頭部装着可能ユニット14を示す。
[0085] 頭部装着可能ユニット14は、好ましくは、少なくとも1つの多軸移動及び位置決めアセンブリ22を含み、本明細書では、MMPアセンブリ(MMP)22とも呼ばれる。ここで、図1は、4つのMMPアセンブリ、すなわちMMPアセンブリ(MMPa)22a、MMPアセンブリ(MMPa)22b、MMPアセンブリ(MMPa)26a及びMMPアセンブリ(MMPa)26bを含むヘッドマウントユニット14を示す。
[0086] 頭部装着可能ユニット14は、好ましくは、少なくとも1つの二次固定パターンアセンブリ24を含み、本明細書ではSFPアセンブリ(SFPa)24とも呼ばれる。ここで、図1は、2つのSFPアセンブリ、つまりSFPアセンブリ(SFPa)24aとSFPアセンブリ(SFPa)24bを含む頭部装着可能ユニット14を示す。
[0087] 頭部装着可能ユニット14は、好ましくは、少なくとも1つの固定撮像アセンブリ28を含み、ここで、図1は、頭部装着部14は、好ましくは、少なくとも1つの固定された撮像アセンブリ28を含み、図1は、2つの固定撮像アセンブリ、すなわち固定撮像アセンブリ28a及び固定撮像アセンブリ28bを含む頭部装着可能ユニット14を示す。
[0088] 頭部装着可能ユニット14は、好ましくは、本明細書ではAE組立体(AEa)30とも呼ばれるアナログ電子部品組立体30を含む。
[0089] 頭部装着可能ユニット14は、好ましくは、本明細書ではDDアセンブリ(DDa)32とも呼ばれるディスプレイドライバアセンブリ32を含む。
[0090] 頭部装着可能ユニット14は、任意選択で、以下の追加の(任意の)構成要素の任意の数又は組み合わせを含む。ローカル制御及び処理アセンブリ34であって、本明細書では、LCPアセンブリ(LCPa)34とも呼ばれる。デジタル信号処理アセンブリ36であって、本明細書では、DSPアセンブリ(DSPa)36とも呼ばれる。オーディオ手段アセンブリ38であって、本明細書ではAMアセンブリ(AMa)38とも呼ばれる。電源アセンブリ40であって、本明細書では、PSアセンブリ(PSa)40とも呼ばれる。位置センサー組立体42。感覚電極アセンブリ44。及び運動電極アセンブリ46。
[0091] 中央制御処理ユニット16は、好ましくは、以下の構成要素の任意の数又は組み合わせを含む。制御アセンブリ50。オペレータ入力アセンブリ52。ディスプレイアセンブリ54。被験者入力アセンブリ56。通信インターフェースアセンブリ58であって、本明細書では、CIアセンブリ(CIa)58とも呼ばれる。電源アセンブリ60であって、本明細書では、PSアセンブリ(PSa)60とも呼ばれる。)

(甲1-イ)「Head Mountable Unit
[0096] In multi-functional optometric-ophthalmic system 10, head mountable unit 14 corresponds to, and represents, an operatively integrated combination of required, preferred, and optional, assemblies (aside from those assemblies of central controlling and processing unit 16) and components thereof, which are included in a given embodiment or configuration of multi-functional optometric-ophthalmic system 10, that are used for automatically and interactively testing, diagnosing, or treating vision or eyes of subject 12, by operator 15. As illustrated in FIG. 2, for implementing multi-functional optometric-ophthalmic system 10, for testing, diagnosing, or treating, vision or eyes of subject 12, by operator 15, head mountable unit 14, including the combination of assemblies, is mounted upon the head of subject 12. As shown in FIGS. 1 and 2, head mountable unit 14 is operatively connected to central controlling and processing unit 16, and is operatively connected to (mounted upon) the head of subject 12.」
(当審訳:頭部装着可能ユニット
[0096] 多機能検眼眼科システム10において、頭部装着可能ユニット14は、必要な、好ましい、及び任意のアセンブリ(中央制御処理ユニット16のそれらのアセンブリを除く)並びにその構成要素の動作可能に統合された組合せに対応し、それらを表し、これらは、多機能検眼検眼システム10の所与の実施形態又は構成に含まれ、操作者15によって、被験者12の視力又は眼を自動的かつ対話的に検査、診断又は治療するために使用される。図2に示すように、被験者12の視力又は眼を検査、診断又は治療するための多機能検眼眼科システム10を実施するために、操作者15によって、アセンブリの組み合わせを含む頭部装着可能ユニット14が、被験者12の頭部に取り付けられる。図1及2に示すように、頭部装着可能ユニット14は、中央制御処理ユニット16に動作可能に接続され、被験者12の頭部に動作可能に接続(装着)される。)

(甲1-ウ)「Near Eye Module Assembly (NEMa)
[0105] In head mountable unit 14, the at least one near eye module assembly 20, also referred to as an NEM assembly (NEMa) 20, where FIG. 1 shows head mountable unit 14 including two near eye module assemblies, i.e., near eye module assembly 20a and near eye module assembly 20b, is for generating various different types or kinds of optical processes or effects which act or take place upon, and are affected by, the eye(s) of subject 12, and for receiving the results of such optical processes or effects from the eyes, as part of the testing, diagnosing, or treating of the vision or eyes of subject 12 by multi-functional optometric-ophthalmic system 10.」
(当審訳:ニアアイモジュールアセンブリ(NEMa)
[0105] 頭部装着可能ユニット14において、少なくとも1つのニアアイモジュールアセンブリ20は、NEMアセンブリ(NEMa)20とも呼ばれ、ここで、図1は2つのニアアイモジュールアセンブリ、すなわちニアアイモジュールアセンブリ20a及びニアアイモジュールアセンブリ20bを含む頭部装着可能ユニット14を示しており、多機能検眼眼科システム10による被験者12の視力又は眼の検査、診断又は治療の一部として、様々な異なるタイプ又は種類の光学プロセス又は効果を生成して、被験者12の眼に作用又は発生し、そして影響を受け、更に被験者12の眼からそのような光学プロセス又は効果の結果を受け取るためものである。)

(甲1-エ)「[0108] With reference to FIGS. 3a, 3b, and 3c, near eye module assembly (NEMa) 20 includes the main components of: (1) a micro-display (display) 202, (2) a first lens assembly (L1a) 216, and (3) a refraction correction assembly (RCa) 218.
[0109] Micro-display (display) 202 is for generating, and emitting, light rays which are transmitted along incident optical path (IOP) 204, and directed into eye 102 of subject 12, for interacting with, and being partly reflected by, retina 162 (and possibly other components) of eye 102.
[0110] A first exemplary specific preferred embodiment of the present invention is wherein micro-display (display) 202 generates, and emits, normal intensity patterns, pictures, or/and videos, which are transmitted to eye 102 of subject 12. Subject 12 reacts to the transmitted pattern, picture, or/and video, according to the properties, characteristics, and parameters, thereof. A second exemplary specific preferred embodiment of the present invention is wherein micro-display (display) 202 generates, and emits, short interval pulses (e.g., on the order of milliseconds (ms) time duration) of high intensity pattern or illumination, which are transmitted to eye 102 of subject 12. Retina 162 (and possibly other components) of eye 102 reflect(s) the transmitted high intensity pattern or illumination (via a variety of other optical components of near eye module assembly (NEMa) 20) into an imager 228 (described further hereinbelow).
[0111] Micro-display (display) 202 generates and emits white light rays having a spectrum including wavelengths in a range of, preferably, between about 200 nanometers (nm) and about 10,000 nanometers (nm), and more preferably, between about 400 nanometers (nm) and about 1000 nanometers (nm). Micro-display (display) 202 is, preferably, designed, constructed, and operates, preferably, according to organic LED (light emitting diode) technology.
[0112] Micro-display (display) 202 has an active display area with a resolution of, preferably, 900 pixels600 pixels, wherein pixel size is, preferably, 15 microns (m)15 microns (m), and wherein each pixel is partitioned into three sub-pixels, each of size 5 microns (m)15 microns (m). Such partitioning of the pixels is done for enabling conversion of white light rays (in FIG. 3a, indicated by three arrows referenced by the symbol www and number 207) generated by, and emitted from, micro-display (display) 202, to colored light rays (in FIG. 3a, indicated by three arrows referenced by the symbol rgb and number 207) exiting from a tri-color filter assembly, for example, red-green-blue filter assembly (RGBFa) 206 (described further hereinbelow). Such partitioning of the pixels is also done for testing vision acuities higher than 6/6, based on the 6/6 vision acuity design requirement illustrated in FIGS. 5a and 5b (described further hereinbelow).」
(当審訳:[0108] 図3a、3b及び3cを参照すると、ニアアイモジュールアセンブリ(NEMa)20は、(1)マイクロディスプレイ(μディスプレイ)202、(2)第1レンズアセンブリ(L1a)216、及び(3)屈折矯正アセンブリ(RCa)218の主要な構成要素を含む。
[0109] マイクロディスプレイ(μディスプレイ)202は、入射光路(IOP)204に沿って伝送され、被験者12の眼102に向けられ、眼102の網膜162(及びおそらく他のコンポーネント)と相互作用し、部分的に反射される光線を生成して放出するためのものである。
[0110] 本発明の第1の例示的な特定の好ましい実施形態は、マイクロディスプレイ(μディスプレイ)202が、被験者12の眼102に送信される通常強度のパターン、写真又は/及びビデオを生成及び放出するものである。被験者12は、送信されたパターン、写真又は/及びビデオに、その特性、特徴及びパラメータに従って反応する。本発明の第2の例示的な特定の好ましい実施形態は、マイクロディスプレイ(μディスプレイ)202が、被験者12の眼102に送信される高強度のパターン又は照明の短い間隔パルス(例えば、ミリ秒(ms)の持続時間)を生成及び放出するものである。眼102の網膜162(及びおそらく他の構成要素)は、伝送された高強度パターン又は照明(ニアアイモジュールアセンブリ(NEMa)20の他の様々な光学構成要素を介して)をイメージャ228(以下で更に説明する)に反射する。
[0111] マイクロディスプレイ(μディスプレイ)202は、好ましくは約200ナノメートル(nm)から約10,000ナノメートル(nm)の間、より好ましくは約400ナノメートル(nm)) から約1000ナノメートル(nm)の間の範囲の波長を含むスペクトルを有する白色光線を生成及び放出する。マイクロディスプレイ(μディスプレイ)202は、好ましくは、有機LED(発光ダイオード)技術に従って設計、構築及び動作することが好ましい。
[0112] マイクロディスプレイ(μディスプレイ)202は、好ましくは900ピクセル×600ピクセルの解像度のアクティブディスプレイ領域を有し、ピクセルサイズは好ましくは15ミクロン(μm)×15ミクロン(μm)であり、各ピクセルは分割されている。それぞれのサイズが5ミクロン(μm)×15ミクロン(μm)の3つのサブピクセルに分けられる。このようなピクセルの分割は、マイクロディスプレイ(μディスプレイ)202によって生成及び放出された白色光線(図3aにおいて、記号「www」と番号207で参照される3つの矢印で示される)を、例えば、赤緑青フィルタアセンブリ(RGBFa)206(以下で更に説明される)などの三色フィルタアセンブリから出ていく有色光線(図3aにおいて、記号「rgb」と番号207で参照される3つの矢印で示される)に変換可能とするために行われる。このようなピクセルの分割は、図5a及び5bに示される(以下で更に説明される)6/6視力の設計要件に基づいて、6/6より高い視力をテストするためにも行われる。)

(甲1-オ)「[0154] Mobile imaging assembly 246 is for imaging anterior parts of eye 102, in particular, and for imaging facial anatomical features and characteristics in the immediate region of eye 102 of subject 12. As the name of mobile imaging assembly 246 implies, mobile imaging assembly 246 is mobile relative to eye 102, by way of being included inside of near eye module assembly (NEMa) 20, which is a mobile component of head mountable unit 14. Mobile imaging assembly 246 includes the main components of: (1) a multi-spectral illumination source, (2) an imager, and (3) an electronically adjustable focus lens. Mobile imaging assembly 246, preferably, includes a tilt angle regulator (TAR) 247.
[0155] The multi-spectral illumination source is used for selectively generating and transmitting light rays having a spectrum including wavelengths in a range of, preferably, between about 200 nanometers (nm) and about 10,000 nanometers (nm), and more preferably, between about 400 nanometers (nm) and about 1000 nanometers (nm). The multi-spectral illumination source includes, preferably, a configuration of LEDs (light emitting diodes) exhibiting a variety of different spectral properties and characteristics.
[0156] The imager is for sensing light rays having the same spectrum as indicated above. The imager includes the capability of operating at a frame rate above about 200 frames per second. The electronically adjustable focus lens is designed, constructed, and operative, for achieving a correspondence with the distance between imager of mobile imaging assembly 246 and a facial anatomical feature or characteristic in the immediate region of eye 102 of subject 12. Such correspondence occurs when sharply focused images of iris 156 and pupil 154 of eye 102 are sensed by the imager.
[0157] Tilt angle regulator (TAR) 247 is for regulating or changing the angle by which mobile imaging assembly 246 is titled relative to the front region of near eye module assembly (NEMa) 20, for example, as shown in FIG. 3c.
[0158] According to the preceding described main function and structure, mobile imaging assembly 246 has a variety of several different uses or applications as part of overall operation of near eye module assembly (NEMa) 20, each of which is illustratively described as follows.
[0159] The first main use or application of mobile imaging assembly 246 is for capturing or collecting information and data for the purpose of mapping facial anatomical features and characteristics in the immediate region of eye 102 of subject 12.
[0160] The second main use or application of mobile imaging assembly 246 is for determining distance, and determining alignment status, of a position or location of near eye module assembly (NEMa) 20 relative to eye 102 of subject 12.
[0161] The third main use or application of mobile imaging assembly 246 is for tracking positions, motion, and geometry, of pupil 154 of eye 102.
[0162] The fourth main use or application of mobile imaging assembly 246 is for observing and measuring changes in facial anatomical features or characteristics in the immediate region of eye 102 of subject 12.
[0163] The fifth main use or application of mobile imaging assembly 246 is for observing and measuring occurrence, and rate, of winking or blinking of eye 102 of subject 12.
[0164] The sixth main use or application of mobile imaging assembly 246 is for observing and measuring occurrence, properties, and characteristics, of tearing of eye 102 of subject 12.」
(当審訳:[0154] 可動撮像アセンブリ246は、特に眼102の前部を撮像するためのものであり、被験者12の眼102の直近の領域における顔の解剖学的特徴及び性質を撮像するためのものである。可動撮像アセンブリ246の名前が示唆するように、可動撮像アセンブリ246は、頭部装着可能ユニット14の「可動」コンポーネントであるニアアイモジュールアセンブリ(NEMa)20の内部に含まれることにより、眼102に対して「可動」である。可動撮像アセンブリ246は、(1)マルチスペクトル照明源、(2)イメージャ、及び(3)電子的に調整可能な焦点レンズの主要な構成要素を含む。可動撮像アセンブリ246は、傾斜角調整器(TAR)247を含むことが好ましい。
[0155] マルチスペクトル照明源は、好ましくは約200ナノメートル(nm)と約10,000ナノメートル(nm)の間、より好ましくは約400ナノメートルと約1000ナノメートル(nm)の間の範囲の波長を含むスペクトルを有する。マルチスペクトル照明源は、好ましくは、様々な異なるスペクトル特性及び性質を示すLED(発光ダイオード)の構成を含む。
[0156] イメージャは、上記と同じスペクトルを持つ光線を感知するためのものである。イメージャは、毎秒約200フレームを超えるフレームレートで動作する機能を備えている。電子的に調整可能な焦点レンズは、可動撮像アセンブリ246の撮像装置と、被験者12の眼102の直近領域における顔の解剖学的特徴又は性質との間の距離に対応するように設計、構成され、動作する。このような対応は、眼102の虹彩156と瞳孔154に鮮明に焦点を合わせた画像がイメージャによって感知されたときに発生する。
[0157] 傾斜角調節器(TAR)247は角度を調節又は変更するためのものであり、それにより、例えば図3cに示すように、可動撮像アセンブリ246がニアアイモジュールアセンブリ(NEMa)20の正面部分に対して傾斜される。
[0158] 前述の主な機能及び構造によれば、可動撮像アセンブリ246は、ニアアイモジュールアセンブリ(NEMa)20の全体的な動作の一部として、様々ないくつかの異なる用途又は応用を有し、それぞれが以下のように例示的に説明される。
[0159] 可動撮像アセンブリ246の第1の主な用途又は応用は、被験者12の眼102の直近の領域における顔の解剖学的特徴及び性質をマッピングする目的で、情報及びデータを取得又は収集することである。
[0160] 可動撮像アセンブリ246の第2の主な用途又は応用は、被験者12の眼102に対するニアアイモジュールアセンブリ(NEMa)20の位置又は配置の距離を決定し、位置合わせ状態を決定することである。
[0161] 可動撮像アセンブリ246の第3の主な用途又は応用は、眼102の瞳孔154の位置、動き及び形状を追跡することである。
[0162] 可動撮像アセンブリ246の第4の主な用途又は応用は、被験者12の眼102の直近領域における顔の解剖学的特徴又は性質の変化を観察及び測定することである。
[0163] 可動撮像アセンブリ246の第5の主な用途又は応用は、被験者12の眼102のウインク又はまばたきの発生及び発生率を観察及び測定することである。
[0164] 可動撮像アセンブリ246の第6の主な用途又は応用は、被検者12の眼102の裂傷の発生、特性及び性質を観察及び測定することである。
[0165] 可動撮像アセンブリ246の第7の主な用途又は応用は、被検者12の眼102の角膜152の厚さ及びトポグラフィを測定及びマッピングすることである。)

(甲1-カ)「Eye Tracking
[0230] For performing of the eye or pupil tracking procedure, mobile imaging assembly 246 of near eye module assembly (NEMa) 20 or/and fixed imaging assembly 28 are used.
[0231] Once the eye 102 of the subject 12 is stimulated by fixation pattern it is used by procedures to ensure that subject's eye 102 follows the fixation pattern. This is performed by means of mobile imaging assembly 246 of near eye module assembly (NEMa) 20 or/and fixed imaging assembly 28 by capturing the video of the eye, processing by means digital signal processing assembly (DSPa) 32 or 62 and detection the center of the pupil 603 (FIG. 9a). For each location of visual stimuli the eye tracking algorithm calculates expected location of the center of pupil 603. The eye tracking procedure reports difference between locations of expected and actual centers of pupil 603.」
(当審訳:視線追跡
[0230] 眼又は瞳孔追跡手順を実行するために、ニアアイモジュールアセンブリ(NEMa)20の可動撮像アセンブリ246又は/及び固定撮像アセンブリ28が使用される。
[0231] 被験者12の眼102が固視パターンによって刺激されると、被験者の眼102が固視パターンに従うことを確実にする手順によって使用される。これは、ニアアイモジュールアセンブリ(NEMa)20の可動撮像アセンブリ246又は/及び固定撮像アセンブリ28によって眼のビデオを取得し、デジタル信号処理アセンブリ (DSPa)32又は62によって処理して、瞳孔の中心603(図9a)検出することにより実行される。視覚刺激の位置ごとに、視線追跡アルゴリズムは、瞳孔603の中心の予想される位置を計算する。視線追跡手順は、瞳孔603の予想される中心と実際の中心の位置の差を報告する。)

(甲1-キ)「Cover Test
[0254] The procedure of cover test is performed using near eye module assembly (NEMa) 20, which is moved and positioned by multi-axis moving and positioning assembly (MMPa) 22. Alternatively, this operation is performed by means of secondary fixation pattern assembly (SFPa) 24 which position is controlled by MMPa 26. The Eye Tracking procedure is used along the Cover Test procedure.
[0255] The Phoria condition of strabismus is tested by a Cover Test that is actually occlusion of one of the eyes. Depending on the phoria eyes condition the eyes moves from fixed position when one of them occluded and moving again when cover is removed. In prior art the cover test performed manually. In this section we present objective and automatic way for performing the cover test by means of a multi-functional optometric-ophthalmic system 10.
[0256] The cover test procedure is exemplified by sequence illustrated on FIG. 13a through FIG. 13e. First binocular object is emulated using Eye Movement Stimulation Binocular Fixation and Distance Perception and Position Regulation procedure. Situation of fixating right eye and deviating left eye 618 is shown on FIG. 13a. The emulation of right eye 102b occlusion is illustrated on FIG. 13b. The emulation of occlusion is done by turning off of micro-display (display) 202b. As shown on FIG. 12b(当審注:前後の文脈から「FIG. 12b」は「FIG. 13b」の誤記と認める。), both eyes moves to left 620. The eyes movement is measured using Eye Tracking procedure. Following removing of occlusion from right eye 102b, by turning on micro-display (display) 202b, right eye 102b fixates again and both eyes are moved to the right 622 (FIG. 13c). Next, left eye 102a is occluded, right eye 102b continues fixating and no eyes movement is detected 624 (FIG. 13d). Following removing of occlusion from left eye 102a, by turning on micro-display (display) 202a, no change in eyes position is detected 626 (FIG. 13e).」
(当審訳:カバーテスト
[0254] カバーテストの手順は、多軸移動及び位置決めアセンブリ(MMPa)22によって移動及び位置決めされるニアアイモジュールアセンブリ(NEMa)20を使用して実行される。あるいは、この操作は、MMPa26によって位置が制御される2次固定パターンアセンブリ(SFPa)24によって実行される。「視線追跡」手順は、「カバーテスト」手順とともに使用される。
[0255] 斜視の斜位状態は、実際に片方の眼の閉塞である「カバーテスト」によって検査される。斜位の眼の状態に応じて、一方の眼が閉塞すると、眼は固定位置から移動し、カバーを外すと再び移動する。従来技術では、カバーテストは手動で行われていた。このセクションでは、多機能検眼眼科システム10を使用して、カバーテストを客観的かつ自動的に実行するための方法を示す。
[0256] カバーテスト手順は、図13aないし13eに示すシーケンスで例示される。最初に、双眼観察対象物は、「眼球運動刺激両眼固定及び距離知覚並びに位置調整」手順を使用してエミュレートされる。図13aは、右目は凝視し、左目は逸らす状況618を示す。図13bは右目102bの閉塞のエミュレーションを示す。閉塞のエミュレーションは、マイクロディスプレイ(μディスプレイ)202bをオフにすることで行う。図12b(当審注:前後の文脈から「図12b」は「図13b」の誤記と認める。)に示すように、両目が左に移動する。眼の動きは、「視線追跡」手順を使用して測定される。マイクロディスプレイ(μディスプレイ)202bをオンにすることによる右目102bからの「閉塞の除去」に続いて、右目102bは再び凝視し、両目が右に移動する622(図13c)。次に、左目102aが閉塞され、右目102bは凝視し続け、目の動きは検出されない624(図13d)。マイクロディスプレイ(μディスプレイ)202aをオンにすることによる左目102aからの「閉塞の除去」に続いて、目の位置の変化は検出されない626(図13e)。
角膜へのパターンの漸進的投影
[0257] この手順は、多軸移動及び位置決めアセンブリ(MMPa)22によって移動及び位置決めされるニアアイモジュールアセンブリ(NEMa)20と、MMPa26によって位置が制御される2次固定パターンアセンブリ(SFPa)24の組み合わせで実行される。
[0258] 「角膜へのパターンの漸進的投影」手順は、例えば、角膜トポグラフィ、角膜又は虹彩の画像化、眼圧測定、及び角膜の厚さのマッピングに使用される。「角膜へのパターンの漸進的投影」の光学セットアップ構成は、図6cに示される。MMPアセンブリ(MMPa)22を使用すると、角膜表面の焦点面を漸進的に調整できる。図14及び図14bは、被検者12の眼102の角膜152上の合焦した同心リング294bによって例示される、合焦した表面を示す。2つの追加の面は、合焦面294a及び294cである。
[0259] 角膜トポグラフィでは、同心リングの変形が画像化され、3次元(3-D)情報が抽出される。2次固定パターンアセンブリ(SFPa)24は、被験者12の眼102の動きを減らすために使用される。同心リングと変形の画像化は、同心リング294a、294b及び294cの直径の増加に伴い、それぞれ漸進的に行われる。
[0260] 眼圧測定は、ピンホールシャッターとエアパフ/超音波アセンブリ220によって生成されるエアパフ波302を使用して行われる(図14a)。同心リング294a、294b及び294cが同時に投影され、1つだけの焦点が合う。エアパフ波302による被験者12の眼102の角膜152の変形により、焦点は1つのリングから別のリングに移る。焦点の遷移は、被検者12の眼102の角膜152の変形に対応し、眼圧も被検者12の眼102の角膜152の変形に対応するため、眼圧が計算される。
[0261] 角膜の厚さのマッピングのため、焦点が合っている各同心リングに対応するニアアイモジュールアセンブリ(NEMa)20の位置は、進行中に2回測定される。Z軸に沿った特定の同心リングの第1と第2の焦点条件の間の距離は、被験者12の眼102の角膜152の対応する領域における角膜の厚さを示す。
[0262] ワンショットの場合の焦点深度が不十分な場合は、蛍光イメージングとスペクトルイメージングに対して、同じように、漸進的合焦が行われる。最後に、漸進的手順から受け取った情報をつなぎ合わせる。)

(甲1-ク)「Eyes Teaming
[0295] For these tests, Eye Movement Stimulation Binocular Fixation and Distance Perception and Position Regulation procedures are used.
Cover Test for Phoria/Tropia Assessment Sensory and motor fusion mechanisms ensure a correct alignment of eyes to allow binocular vision. If the sensory fusion is prevented, e.g. by occlusion of one eye, motor fusion will be frustrated and a deviation of the visual axes will occur in many patients. If the motor fusion reflex eliminates the deviation when the obstacle to sensory fusion is removed, the deviation is latent, and is called a phoria. The cover test for phoria/tropia assessment is performed using the Cover Test procedure.」
(当審訳:眼チーミング
[0295] これらの検査では、「眼球運動刺激両眼固定及び距離知覚並びに位置調節」手順が使用される。
斜位/斜視評価のためのカバーテストの感覚と運動の融合メカニズムは、両眼視を可能にする目の正しい位置合わせを保証する。例えば、片眼の閉塞により感覚融合が妨げられている場合、運動融合が阻害され、多くの患者で視軸のずれが発生する。感覚融合の障害が取り除かれたときに運動融合反射がずれを解消すると、そのずれは潜在的であり、斜位と呼ばれる。斜位/斜視評価のためのカバーテストは、「カバーテスト」手順を使用して実行される。)

(甲1-ケ)「Objective Vision Acuity Test (Gratings on Gray Card)
[0304] The objective vision acuity could be assessed using Grating on Gray Card (GGC). The gray background is generated by micro-display (display) 202. Gratings of low spatial frequency, corresponding to 20/200 vision acuity, is generated first and randomly moves through the micro-display (display) 202. The grating spatial frequency increases until subject 12 tracks the grating. The procedure continues until the subject 12 can fixate the fixation grating. In such way the vision acuity is evaluated objectively.」
(当審訳:客観的視力検査(灰色カード上の格子)
[0304] 客観的な視力は、「灰色カード上の格子」(GGC)を使用して評価できる。灰色の背景は、マイクロディスプレイ(μディスプレイ)202によって生成される。20/200の視力に対応する低空間周波数の格子が最初に生成され、マイクロディスプレイ(μディスプレイ) 202上をランダムに移動する。被験者12が格子を追跡する限り、格子の空間周波数は増加する。この手順は、被験者12が固定格子を固定できるまで続く。このようにして、視力は客観的に評価される。)

(甲1-コ)Fig.2(図2)




(甲1-サ)Fig.3a(図3a)




(甲1-シ)Fig.13a?e(図13a?e)




(2)上記(甲1-ア)ないし(甲1-シ)の記載から、甲1には、
「 主要構成要素として頭部装着可能ユニット14と中央制御処理ユニット16を含む、被験者12の視力又は眼を検査、診断又は治療するための多機能検眼眼科システム10であって、
頭部装着可能ユニット14は、主要な構成要素として、頭部装着アセンブリ18と2つのニアアイモジュールアセンブリ、すなわちニアアイモジュールアセンブリ(NEMa)20a及びニアアイモジュールアセンブリ(NEMa)20bを含み、
頭部装着可能ユニット14は、中央制御処理ユニット16に動作可能に接続され、
2つのニアアイモジュールアセンブリは、様々な異なるタイプ又は種類の光学プロセス又は効果を生成して、被験者12の眼に作用又は発生し、そして影響を受け、更に被験者12の眼からそのような光学プロセス又は効果の結果を受け取るためものであり、マイクロディスプレイ(μディスプレイ)202、第1レンズアセンブリ(L1a)216、及び屈折矯正アセンブリ(RCa)218の主要な構成要素を含み、
マイクロディスプレイ(μディスプレイ)202は、入射光路(IOP)204に沿って伝送され、被験者12の眼102に向けられ、眼102の網膜162(及びおそらく他のコンポーネント)と相互作用し、部分的に反射される光線を生成して放出するためのものであり、被験者12の眼102に送信される通常強度のパターン、写真又は/及びビデオを生成及び放出するものであり、
可動撮像アセンブリ246は、特に眼102の前部を撮像するためのものであり、頭部装着可能ユニット14の「可動」コンポーネントであるニアアイモジュールアセンブリ(NEMa)20の内部に含まれ、眼102の瞳孔154の位置、動き及び形状を追跡し、
斜位/斜視評価のためのカバーテストを客観的かつ自動的に実行することができ、例えば、右目は凝視し、左目は逸らす状況で、眼の動きを測定し、マイクロディスプレイ(μディスプレイ)202bをオフにすることで右目102bの閉塞のエミュレーションを行い、両目が左に移動し、マイクロディスプレイ(μディスプレイ)202bをオンにすることによる右目102bからの「閉塞の除去」に続いて、右目102bは再び凝視し、両目が右に移動し、次に、左目102aが閉塞され、右目102bは凝視し続け、目の動きは検出されず、マイクロディスプレイ(μディスプレイ)202aをオンにすることによる左目102aからの「閉塞の除去」に続いて、目の位置の変化は検出されないといった具合であり、
「灰色カード上の格子」(GGC)を使用して客観的な視力を評価することができ、灰色の背景は、マイクロディスプレイ(μディスプレイ)202によって生成され、20/200の視力に対応する低空間周波数の格子が最初に生成され、マイクロディスプレイ(μディスプレイ) 202上をランダムに移動し、被験者12が格子を追跡する限り、格子の空間周波数は増加し、この手順は、被験者12が固定格子を固定できるまで続けることで、視力は客観的に評価される、
被験者12の視力又は眼を検査、診断又は治療するための多機能検眼眼科システム10。」
の発明(以下「甲1発明」という。)が記載されていると認められる。

2 甲2について
(1)緑内障における視野欠損を監視するためのビデオゲームに関する文献である甲2には、以下の記載がある。
(甲2-ア)「 Overview
[0046] Embodiments of the present invention are directed to a video game to map a test subject's peripheral vision. In some embodiments, the video game comprises a moving visual fixation point that is actively confirmed by an action performed by the test subject and a test for the subject to locate a briefly presented visual stimulus (e.g., 0.1 seconds, 1 second, etc.). The game is implemented on a hardware platform comprising a video display, a user input device, and a video camera. The camera is used to monitor ambient light level and the distance between the video display and the eyes of the test subject. The game serves as a visual field test that produces a map of the thresholds of visual perception of the subject's eye that may be compared with age-stratified normative data. The test is suitable to be administered by the subject (also referred to as player or user herein) with or without professional supervision. The results may be transmitted to a health care professional or other entities by telecommunications means to facilitate the diagnosis and/or monitoring of glaucoma or other relevant eye diseases.
The Apparatus
[0047] Embodiments of the present invention include a computer with a video display, a video camera, and a human-user input device. One example of an integrated apparatus serving these functions is the iPad 2R(当審注:原文の「R」は丸囲い付きである。) (Apple Inc., Cupertino, Calif.). Other computers or computer systems with similar functionalities may also be used. Referring to FIG. 1, a device 100 is shown that has a video camera 110 configured to monitor the distance between the device and a test subject's eyes. The device 100 also comprises a touch screen display 120 that is divided into a main game play area 121 and an ancillary area 122. The play area 121 is used to display the visual action of a game. The play area 121 is preferably approximately square, but other shapes may also be used. The ancillary area 122 is used to for ancillary human user input and score display, as discussed below. In other embodiments, the play area 121 and 122 may be combined or may be display alternately on the display 120.
[0048] Referring to FIG. 2, the device 100 may be positioned on a stand 145 such that the user's eye 130 is approximately equal distance (D) to the top and bottom of the device's display 120. The camera 110 on the front of the device 100 may be used to monitor ambient light. The test is preferably performed in dim room lighting (low scotopic). The brightness of the screen 120 may be automatically adjusted according to the ambient light level within an acceptable range. Outside of the acceptable range, a warning message on the screen 120 may be provided to instruct the user to increase or decrease the room lighting appropriately.
[0049] Referring to FIGS. 3A and 3B, an occluder 160 is shown that may be used to occlude vision in one eye so the other eye can be tested using the video game of the present invention. The occluder 160 could be mounted on spectacles 150 or could be fixed on the user's head using straps. The occluder 160 has a visible feature 165 of known dimensions which is captured by the video camera 110 and can be analyzed by a computer (see FIG. 4) of the device 100 to monitor the distance between subject's eyes and the device. As shown, the visual feature 165 could include, for example, a horizontal bar 165A with well-defined termination points (e.g., vertical bars 165B and 165C) so that the length of the horizontal bar may be easily determined by computerized automatic image processing. Other shapes or patterns, such as a circle or rectangle, could also be used. Based on the video analysis, the device 100 may display an instruction 140 on the screen 120 (and/or by sound) so the user can position his or her head within the optimal range of distance from the device.
[0050] An alternative method, shown in FIG. 3C, of obtaining the desired viewing distance D asks the user to adjust the viewing distance until the size of the real-time video display the occluder 160 has the correct size. In the example shown, the user compares the video display of the calibration feature 165 against a regularly spaced vertical line overlay 141. The user moves his/her head and/or the device 100 back and forth until the length of the feature 165 (e.g., between vertical bars 165B and 165C) spans two interval spacing between the vertical lines 141.
[0051] Another alternative method for the device 100 to monitor viewing distance is to analyze the size of the subject's eye (e.g., corneal width from limbus to limbus) being tested or other features on the subject's face. For this alternative to work, a video frame may first be taken when the user's face is at a known distance from the camera 110. As an example, the distance could initially be established using a measuring tape or ruler with a known length.
[0052] Referring now to FIG. 4, a user input device 123 and an output device 120 are shown connected to a computer 166 of the device 100. The term computer used in this instance refers to processors, memory, data/control bus, etc., as opposed to the peripheral input and output devices. The input and output functions can both be performed on the same touch screen, as depicted in FIG. 1. The video camera 110 produces image frames that are processed by the computer 166 to monitor the distance between the subject's eyes and the device 100. The subject produces action in the video game with the input device 123 and the game background and actions are displayed on the video display or output device 120. The game sounds are output on a speaker 125.
[0053] The test results may be transmitted or uploaded (e.g., wirelessly) to a server 168 over a network 167 (e.g., the Internet, a mobile communications network, etc.). This feature allows for the storage, tracking, review, and analysis of the test results over time to detect patterns, such as the deterioration of a patient's vision. The patient, his or her healthcare professionals, or others may access the data stored on the server 168 through a web browser or via a link to an electronic health record system of a healthcare facility. The test results data may be processed and presented in a manner that is useful for the patient and/or healthcare provider to analyze the results.
[0054] The server 168 may also be configured to provide notifications or alerts to the patient or their healthcare provider for any changes in vision that may require further attention or treatment. These alerts may be sent to a patient's and/or healthcare provider's electronic devices (e.g., the mobile phone 169, a computer, etc.) via email, SMS messages, voice messages, or any other suitable messaging system. For example, if a manual or automated analysis of the uploaded test results reveals that a patient's vision is deteriorating, the server 168 may automatically send a message to the patient and/or a healthcare provider to alert them of the change in condition. Thus, appropriate action or treatment may be provided.」
(当審訳:概要
[0046] 本発明の実施形態は、被験者の周辺視野をマッピングするためのビデオゲームを対象とする。いくつかの実施形態では、ビデオゲームは、被験者によって実行される動作によって能動的に確認される移動する視覚固視点、及び被験者が短期間提示される視覚刺激(例えば、0.1秒、1秒など)を見つける検査を含む。ゲームは、ビデオディスプレイ、ユーザ入力装置、及びビデオカメラを含むハードウェアプラットフォーム上で実装される。カメラは、周辺光レベル、及びビデオディスプレイと被験者の眼との間の距離を監視するために使用される。ゲームは、年齢層別基準データと比較され得る、被験者の眼の視覚認識閾値のマップを生成する視野検査として機能する。検査は、専門家の監督の有無にかかわらず、被験者(本明細書ではプレイヤー又はユーザとも呼ぶ)によって行われるのに適している。緑内障又は他の関連した眼疾患の診断及び/又は監視を容易にするために、結果が医療専門家又は他の実体に遠隔通信手段によって伝送され得る。
機器
[0047] 本発明の実施形態は、ビデオディスプレイ、ビデオカメラ、及び人間のユーザ入力装置を備えたコンピュータを含む。これらの機能を提供する統合機器の一例は、iPad 2(登録商標)(Apple Inc.、米国カリフォルニア州クパチーノ)である。類似の機能性を備えた他のコンピュータ又はコンピュータシステムも使用され得る。図1を参照すると、装置と被験者の眼との間の距離を監視するように構成されたビデオカメラ110を有する装置100が示されている。装置100は、メインのゲームプレイ領域121及び補助領域122に分割されているタッチスクリーンディスプレイ120も含む。プレイ領域121は、ゲームの視覚動作(visual action)を表示するために使用される。プレイ領域121は、好ましくはほぼ矩形であるが、他の形状も使用され得る。補助領域122は、以下で説明するように、付随する人間のユーザ入力及び得点表示用に使用される。他の実施形態では、プレイ領域121及び122は、結合され得るか、又はディスプレイ120上に交互に表示され得る。
[0048] 図2を参照すると、装置100は、ユーザの眼130が、装置のディスプレイ120の上端及び下端に対してほぼ等しい距離(D)になるように、スタンド145上に位置付けられ得る。装置100の前面上のカメラ110が、周辺光を監視するために使用され得る。検査は、好ましくは、薄暗い室内照明(低暗順応)で実行される。画面120の輝度が、許容範囲内で周辺光レベルに応じて自動的に調整され得る。許容範囲外では、ユーザに室内照明を適切に明るくするか、又は暗くするように指示するために、画面120上に警告メッセージが提供され得る。
[0049] 図3A及び図3Bを参照すると、片方の眼の視覚を塞いで、もう一方の眼を本発明のビデオゲームを使用して検査できるようにするために使用され得るオクルーダ160が示されている。オクルーダ160は、眼鏡150上に取り付けられ得るか、又はストラップを使用してユーザの頭部に固定され得る。オクルーダ160は、被験者の眼と装置との間の距離を監視するために、ビデオカメラ110によって捕捉され、装置100のコンピュータ(図4を参照)によって分析できる、既知の寸法の可視特徴165を有する。図のように、視覚特徴165は、例えば、水平バーの長さがコンピュータ化自動画像処理によって容易に判断され得るように、明確に定義された終端点(例えば、垂直バー165B及び165C)をもつ水平バー165Aを含み得る。円形又は矩形などの、他の形状又はパターンも使用され得る。ビデオ分析に基づいて、装置100は、ユーザが彼又は彼女の頭部を装置から最適な範囲の距離にすることができるように、指示140を画面120上に(及び/又は音声によって)表示し得る。
[0050] 図3Cに示される、所望の視距離Dを獲得する代替方法は、ユーザに、リアルタイムビデオ表示のオクルーダ160のサイズが正確なサイズになるまで、視距離を調整するように要求する。示された例では、ユーザは較正特徴165のビデオ表示を規則的間隔の縦線オーバーレイ141と比較する。ユーザは、彼/彼女の頭部及び/又は装置100を、特徴165(例えば、垂直バー165Bと165Cとの間)の長さが、縦線141間の2つの間隔に渡るまで、前後に動かす。
[0051] 装置100が視距離を監視するための別の代替方法は、検査されている被験者の眼のサイズ(例えば、角膜縁から角膜縁までの角膜幅)又は被験者の顔面上の他の特徴を分析することである。この代替手段が機能するために、ユーザの顔がカメラ110から既知の距離にある時に、ビデオフレームがまず取得され得る。一例として、既知の長さを有する測定テープ又は定規を使用して、距離が最初に確立され得る。
[0052] 図4を参照すると、装置100のコンピュータ166に接続されたユーザ入力装置123及び出力装置120が示されている。この状況で使用されている用語のコンピュータは、周辺機器の入力装置及び出力装置とは対照的に、プロセッサ、メモリ、データ/制御バスなどを指す。入力及び出力機能は両方とも、図1に示すように、同じタッチスクリーン上で実行できる。ビデオカメラ110は、被験者の眼と装置100との間の距離を監視するために、コンピュータ166によって処理される画像フレームを生成する。被験者は、入力装置123を用いてビデオゲーム内で動作を生じ、ゲームの背景及び動作がビデオディスプレイ又は出力装置120上に表示される。ゲームの音声が、スピーカ125上で出力される。
[0053] 検査結果は、ネットワーク167(例えば、インターネット、移動体通信ネットワークなど)を経由して、サーバー168に(例えば、無線で)伝送又はアップロードされ得る。この機能は、患者の視力の悪化などのパターンを検出するために、長期間にわたる検査結果の格納、追跡、再検討、及び分析を可能にする。患者、彼もしくは彼女の医療専門家又はその他は、ウェブブラウザを通して、又は医療機関の電子カルテシステムへのリンクを介して、サーバー168上に格納されたデータにアクセスし得る。検査結果データは、結果を分析するために、患者及び/又は医療サービス提供者に対して便利な方法で、処理及び提示され得る。
[0054] サーバー168は、さらなる注意又は治療を必要とし得る視力における任意の変化に対して、患者又は彼らの医療サービス提供者に通知又は警告を提供するようにも構成され得る。これらの警告は、電子メール、SMSメッセージ、音声メッセージ、又は任意の他の適切なメッセージングシステムを介して、患者及び/又は医療サービス提供者の電子装置(例えば、携帯電話169、コンピュータなど)に送信され得る。例えば、アップロードされた検査結果の手動又は自動分析で、患者の視力が悪化していることが明らかになると、サーバー168はメッセージを患者及び/又は医療サービス提供者に自動的に送信して、彼らに症状の変化を警告し得る。このようにして、適切な措置又は治療が提供され得る。)

(甲2-イ)「[0060] The test is administered at a viewing distance that is sufficient to provide useful glaucoma diagnostic information. For example, the iPad 2R(当審注:原文の「R」は丸囲い付きである。) used in some embodiments has a screen that is 5.8 inches wide. Referring back to FIG. 1, the display area 120 uses this full width of the screen. This provides a maximum perimetry testing area of +/-20 degrees (40 degrees full field width) at a viewing distance of 16 inches, using the methods of the current invention. The width and height of the VF testing is preferably no smaller than this, but could be smaller if desired. The device 100 monitors the viewing distance by taking images of the user's face (see FIG. 3) using the camera 110. The computer 166 (see FIG. 4) analyzes the visible feature 165 on the occluder 160 to compute the distance between the camera 110 and the occluder 160, which is approximately the same as the viewing distance. At the setup of each game, the device 100 instructs the user to move his or her head into position so the image of their face (in particular, the occluder 160) can be captured by the camera 110 and displayed in display area 120. The device 100 then instructs the user to move closer to or further from the display area 120 to bring the user's eyes into the target range of viewing distance. The initial target range may be 15 to 17 inches, for example. In some embodiments, the device 100 periodically monitors the viewing distance and instructs the user to move closer to or further from the display area 120 throughout the game. Again, within a certain range, the device 100 can scale the entire test to accommodate the given distance. In case of the testing area getting smaller than 20 degrees, a warning message may be displayed to notify the user about the situation, but if the user accepts the limitation, a game may begin. The results of such a situation may be modified accordingly, while clearly indicating the situation.
[0061] Generally, the user should be wearing spectacle correction for their best vision within the operating range of the viewing distance. For an emmetrope, a pair of reading glasses with power of +2.25 D to +2.50 D would be optimal for the viewing distance of 16 inches. If spectacles are used, the occluder 160 should be mounted over the spectacle lens over the eye not being tested. If no spectacles are needed or if the subject is using contact lenses, the occluder 160 could be mounted over plano glasses or strapped on as an eye patch.」
(当審訳:[0060] 検査は、有用な緑内障診断情報を提供するのに十分である視距離で行われる。例えば、いくつかの実施形態で使用されるiPad 2(登録商標)は、5.8インチ幅の画面を有する。図1を再度参照すると、表示領域120は、画面のこの全幅を使用する。これは、本発明の方法を使用して、16インチの視距離で、+/-20度(40度の全フィールド幅)の最大視野測定検査領域を提供する。VF検査の幅及び高さは、好ましくはこれよりも小さくないが、必要なら小さくてもよい。装置100は、カメラ110を使用して、ユーザの顔の画像を取得することにより(図3を参照)視距離を監視する。コンピュータ166(図4を参照)は、視距離とほぼ同じである、カメラ110とオクルーダ160との間の距離を計算するためにオクルーダ160上の可視特徴165を分析する。各ゲームのセットアップ時に、装置100は、ユーザに、彼らの顔の画像(特に、オクルーダ160)がカメラ110によって捕捉されて、表示領域120内に表示できるように、彼又は彼女の頭部を適切な位置に移動させるように指示する。装置100は次いで、ユーザの眼を視距離の対象範囲に持ってくるために、ユーザに、表示領域120に対してもっと近づいたり、離れたりするように指示する。初期の対象範囲は、例えば、15?17インチであり得る。いくつかの実施形態では、装置100は、ゲーム中ずっと、視距離を定期的に監視して、ユーザに表示領域120に対してもっと近づいたり離れたりするように指示する。さらに、ある範囲内で、装置100は、所与の距離に対応するために検査全体を拡大縮小できる。20度よりも小さくなる検査領域の状況では、その状況に関してユーザに通知するために、警告メッセージが表示され得るが、ユーザがその制限を受け入れる場合、ゲームが開始され得る。かかる状況の結果は、その状況を明瞭に示しながら、それに応じて修正され得る。
[0061] 一般に、ユーザは、視距離の動作範囲内で、彼らの最高の視力に矯正するための眼鏡をかけているべきである。正視者に対して、+2.25D?+2.50Dの倍率の読書用眼鏡が、16インチの視距離に対して最適であろう。眼鏡が使用される場合、オクルーダ160は、検査されていない眼の上の眼鏡レンズを覆って取付けられるべきである。眼鏡が必要ない場合、又は被験者がコンタクトレンズを使用している場合、オクルーダ160は、平面ガラス上に取り付けられるか、又は眼帯として固定され得る。)

(甲2-ウ)「[0070] Referring to the process 178 shown in FIG. 10, a visual stimulus is briefly presented at a peripheral visual field location at 180. In a conventional static visual field, the visual stimulus is a brief presentation of a round target and the strength of the stimulus is determined by its size and brightness. The visual stimulus is conventionally white, or blue in the case of short wavelength automated perimetry. Motion is used in “frequency doubling technology.” The game visual field test of the present invention may use any combination of these visual stimulus design features. In the butterfly game illustrated in FIGS. 5-9, the brief opening of the butterfly wing is the visual signal or stimulus. In some embodiments, the opening exposes blue spots on the butterfly wings so there is a short-wavelength component to the stimulus. The opening may be a continuous motion so there also a motion component. The strength of the visual stimulus is determined by the width of wing opening, the length of the butterfly, and the duration of the wing opening and closing cycle. In conventional visual field testing, the subject clicks a button if he perceives the visual stimulus and takes no action if he does not.」
(当審訳:[0070] 図10に示すプロセス178を参照すると、180で、視覚刺激が周辺視野位置に短時間提示される。従来の静的視野では、視覚刺激は、丸いターゲットの短時間の提示であり、刺激の強度はそのサイズ及び輝度によって決定される。視覚刺激は、従来から、白、又は短波長自動視野測定の場合には青である。「周波数倍増技術」で動きが使用される。本発明のゲーム視野検査は、これらの視覚刺激設計特徴の任意の組合せを使用し得る。図5?図9に示す蝶取りゲームでは、蝶の羽がわずかに広がるのが、視覚的合図つまり刺激である。いくつかの実施形態では、蝶が羽を広げると、蝶の羽の上の青いスポットが露出し、そのため、刺激に対する短波長構成要素が存在するようになる。羽を広げることは、連続した動きであり得、そのため、動きの構成要素もある。視覚刺激の強度は、広がる羽の幅、蝶の長さ、及び羽を広げて閉じるサイクルの持続時間によって決定される。従来の視野検査では、被験者は、視覚刺激に気が付くとボタンをクリックし、気が付かないと何もしない。)

(甲2-エ)「[0080] Since any VF test is susceptible to error due to variation in the subject's response and loss of fixation from time to time, it is best to make diagnosis of glaucoma based on several VF tests. Likewise, worsening of the VF over time is best confirmed over several VF tests performed over a period of time. The advantage of the game VF test is that it is not as tedious and boring as conventional VF tests and therefore repeat testing is better tolerated. It can also be performed by users at home so that testing can be done continually between visits to a physician.
Head Tracking and Gaze Tracking Game
[0081] The computing power of video game playing stations and mobile computing devices is increasing rapidly, such that real-time tracking of head position is possible by monitoring the position of gross facial features. It is also possible to monitoring fine eye features to determine the direction of gaze, or at least detect directional change in gaze. Using head position or gaze direction as input can speed up the input for VF games, compared to the use of manual input device such as finger swipe on the touch screen or joystick. Again, many scenarios are possible for such a game, but an “Apache gunner” game scenario is described herein and shown in FIGS. 14-19 as an example.」
(当審訳:[0080] VF検査は、被験者の反応における変動及び時折の固視喪失に起因して、誤差の影響を受けやすいので、いくつかのVF検査に基づき緑内障の診断を行うことが最善である。同様に、長期間にわたるVFの悪化は、長期間にわたって実行されるいくつかのVF検査を通して最も良く確認される。ゲームVF検査の利点は、それが、従来のVF検査ほど退屈でつまらなくなく、従って反復検査がより良く我慢されることである。検査が、医師を受診する間に継続的に実行できるように、それは、ユーザによって自宅で実行できる。
頭部追跡及び視線追跡ゲーム
[0081] ビデオゲームプレイングステーション及びモバイルコンピューティング装置の計算能力が急激に向上し、これにより、頭部位置のリアルタイム追跡が全体的顔特徴の位置を監視することにより可能である。視線の方向を判断するため、又は少なくとも視線における方向変化を検出するために、細かい眼の特徴を監視することも可能である。頭部位置又は視線の方向を入力として使用すると、タッチスクリーン上の指のスワイプ又はジョイスティックなどの手動の入力装置の使用に比べて、VFゲームに対する入力速度を上げることができる。さらに、かかるゲームに対して多数のシナリオが可能であるが、「アパッチ射手」ゲームシナリオが、例として、本明細書に記載され、図14?図19に示されている。)

(甲2-オ)「[0085] This game's scenario can also be played using a finger swipe on the touch screen 120 to control the gun sight 310 (or other manual control), instead of using head tracking. It can also be played using eye tracking to control the position of the gun sight 310. Whatever input device is used, it may be important for the main screen display area 121 to be kept clear of the player's finger and hand so as not to obscure the visual stimulus being displayed.」
(当審訳:[0085] ゲームのシナリオは、頭部追跡を使用する代わりに、照準器310(又は他の手動制御)を制御するために、タッチスクリーン120上で指スワイプを使用してもプレイできる。それは、照準器310の位置を制御するために、視線追跡を使用してもプレイできる。どの入力装置が使用されても、表示されている視覚刺激を覆い隠さないために、メインの画面表示領域121に、プレイヤーの指及び手を近づけないようにすることが重要であり得る。)

(甲2-カ)「[0097] In conventional VF testing, the subject's head is stabilized on a chin-forehead rest to fix the distance between the eye and visual stimuli to a preset distance. In the present invention, the working distance is monitored and adjusted by the video camera built into the mobile computing device. The camera captures images of an occluder worn over the eye not being tested. The occluder has a recognizable pattern of known dimension so that the working distance can be calculated by its apparent size in the video images. The device uses this information to instruct the subject to move the head to the correct working distance. Alternatively, the system scales the entire game according to the measured distance as described above. This feature is provided as an optional setup, which can be toggled on/off before starting a game by accessing the preference configuration pane.」
(当審訳:[0097] 従来のVF検査では、眼と視覚刺激との間の距離を事前設定された距離に固定するために、被験者の頭部が顎・額受け台上に固定される。本発明では、モバイルコンピューティング装置に内蔵されたビデオカメラによって、作業距離が監視されて調整される。カメラは、検査されていない眼を覆って装着されたオクルーダの画像を捕捉する。オクルーダは、作業距離がビデオ画像内のその見た目の大きさによって計算できるように、既知の寸法の認識可能なパターンを有する。装置は、この情報を使用して、被験者に頭部を正しい作業距離まで動かすように指示する。代替として、システムは、前述のように、測定された距離に従って、ゲーム全体を拡大縮小する。この機能は、任意選択のセットアップとして提供され、それは、ゲームを開始する前に、好み構成ペインにアクセスすることにより、トグルでオン/オフを切り換えることができる。)

(甲2-キ)「[0112] The computing device 12 includes a system memory 22, the processing unit 21, and a system bus 23 that operatively couples various system components, including the system memory 22, to the processing unit 21. There may be only one or there may be more than one processing unit 21, such that the processor of computing device 12 includes a single central-processing unit (“CPU”), or a plurality of processing units, commonly referred to as a parallel processing environment. When multiple processing units are used, the processing units may be heterogeneous. By way of a non-limiting example, such a heterogeneous processing environment may include a conventional CPU, a conventional graphics processing unit (“GPU”), a floating-point unit (“FPU”), combinations thereof, and the like. The computing device 12 may be a tablet computer, a smartphone, a conventional computer, a distributed computer, or any other type of computer.」
(当審訳:[0112] コンピューティング装置12は、システムメモリ22、処理装置21、及びシステムメモリ22を含む、様々なシステム構成要素を処理装置21に動作可能に結合するシステムバス23を含む。1つだけの処理装置21があり得るか、又は複数の処理装置21があり得、これにより、コンピューティング装置12のプロセッサは、単一の中央処理装置(「CPU」)、又は一般に並列処理環境と呼ぶ、複数の処理装置を含むようになる。複数の処理装置が使用される場合、処理装置は異種であり得る。限定されない例として、かかる異種の処理環境は、従来型のCPU、従来型のグラフィック処理装置(「GPU」)、浮動小数点演算ユニット(「FPU」)、それらの組合せ、及び同類のものを含み得る。コンピューティング装置12は、タブレットコンピュータ、スマートフォン、従来型のコンピュータ、分散コンピュータ、又は任意の他のタイプのコンピュータであり得る。)

(2)上記(甲2-ア)ないし(甲2-キ)の記載から、甲2には、「被験者の周辺視野をマッピングするためのビデオゲームにおいて、片方の眼の視覚を塞いで、もう一方の眼をビデオゲームを使用して検査できるようにするために、オクルーダを眼鏡上に取り付けるか、ストラップを使用して被験者の頭部に固定する」という技術事項(以下「甲2技術事項」という。)が記載されていると認められる。

3 甲3について
(1)視覚疲労度測定装置、その方法、視覚疲労度測定システム及び3次元メガネに関する文献である甲3には、以下の記載がある。
(甲3-ア)「[0019] (課題を解決するための態様)
そこで、本発明者らは、ゲーム等の3次元映像の視聴を中断することなく、かつ、年齢等による視覚の機能の個人差に依存しないで、視聴者の視覚疲労度を正確に測定することができる視覚疲労度測定装置等を考案した。
[0020] つまり、本発明に係る視覚疲労度測定装置の一態様は、3次元映像を視聴しているユーザの視覚疲労度を測定する視覚疲労度測定装置であって、前記3次元映像を構成する左目用映像と右目用映像とを前記ユーザに提示する映像提示部と、提示された映像に対する前記ユーザの操作を受け付ける操作入力部と、前記操作入力部が所定の操作を受け付けた場合に、記憶部から、前記映像の中の視覚対象物を特定する情報と前記視覚対象物が前記映像提示部で提示される時刻を示す情報とを含む対象物領域情報を取得し、取得した前記対象物領域情報を参照することで、前記所定の操作を受け付けた時刻に前記映像提示部で提示されていた映像の中の前記視覚対象物を前記ユーザが注視していたと判断する注視対象物特定部と、前記記憶部から、前記映像における前記視覚対象物の奥行きを示す対象物奥行き情報を取得し、取得した前記対象物奥行き情報を参照することで、前記注視対象物特定部で特定された視覚対象物の奥行きの変化に基づいて、前記視覚疲労度を測定する検査のための時間区間を2つ以上決定する検査区間決定部と、前記映像提示部で提示された映像に対する前記ユーザの左右の眼球運動を示すデータを取得する眼球運動取得部と、取得された前記眼球運動を示すデータを蓄積する眼球運動蓄積部と、前記眼球運動蓄積部に蓄積されているデータから、前記検査区間決定部で決定された2つ以上の時間区間のそれぞれにおける眼球運動を示すデータを抽出する眼球運動抽出部と、前記眼球運動抽出部で抽出されたデータに基づいて、前記2つ以上の時間区間での眼球運動を比較する眼球運動比較部と、前記眼球運動比較部での比較結果から前記ユーザの視覚疲労度を判定する疲労度判定部とを備える。
[0021] これにより、3次元映像の視聴中における眼球運動に基づいて視覚疲労度が測定されるので、ゲーム等の3次元映像の視聴を中断することなく視覚疲労度が測定される。また、2つ以上の検査区間における眼球運動を比較する相対評価によって視覚疲労度が測定されるので、視聴者の年齢等による視覚機能の個人差に依存しにくい正確な視覚疲労度が測定される。
[0022] つまり、3次元映像の視聴中における眼球運動に基づいて視覚疲労度が測定されるとともに、2つ以上の検査区間における眼球運動を比較する相対評価によって視覚疲労度が測定されるので、ゲーム等の3次元映像の視聴中における立体視に伴う眼球運動の相対的変化を観察して、ユーザの疲労度合いを計測することができ、ゲーム等の3次元映像の視聴とは関係の無いキャリブレーションやゲーム等の3次元映像の視聴の中断を行うことなくユーザの疲労を正確に計測することができる。
[0023] ここで、前記注視対象物特定部は、前記操作入力部が前記所定の操作を受け付けた場合に、前記映像提示部で提示されていた複数の視覚対象物から1つを選択し、選択した1つの視覚対象物を前記ユーザが注視していたと判断してもよい。これにより、複数の視覚対象物からユーザが注視していた視覚対象物を適切に選択することができるので、3次元映像の視聴中における眼球運動の相対比較を正確に行うことができ、ゲームの内容を利用して精度よく疲労度の計測をすることができる。
[0024] なお、前記映像提示部は、前記ユーザが視覚対象物に対して照準を合わせて射撃を行うゲームを構成する左目用映像と右目用映像とを前記ユーザに提示し、前記操作入力部は、前記ユーザが射撃を行うために照準を合わせる操作を受け付け、前記注視対象物特定部は、前記操作入力部が受け付けた前記操作から、前記ユーザが注視している視覚対象物を特定するのが好ましい。これにより、ユーザが射撃を行うために照準を合わせる操作に基づいて、ユーザが注視している視覚対象物が特定されるので、より確実に、ユーザが注視している視覚対象物を利用した正確な視覚疲労度が測定される。
[0025] また、前記検査区間決定部は、前記注視対象物特定部で特定された視覚対象物の奥行きの変化のうち、同一の奥行きの変化をもつ異なる2つ以上の時間区間を、前記視覚疲労度を測定する検査のための時間区間として、決定するのが好ましい。これにより、同一の奥行きの変化をもつ異なる2つ以上の時間区間が視覚疲労度を測定する検査のための時間区間として決定されるので、映像の違いによる測定誤差の発生が回避される。
[0026] また、前記疲労度判定部は、前記2つの時間区間における眼球運動の差が大きいほど疲労度が大きいと判定するのが好ましい。これにより、2つの時間区間における眼球運動の差が大きいほど疲労度が大きいと判定されるので、同一ユーザの異なる時間における相対比較により、視覚疲労度が正確に判定される。」

(甲3-イ)「[0035] なお、本発明は、左目に提示する画像及び右目に提示する画像を含む3次元映像を視聴するための3次元メガネであって、前記ユーザの眼球運動を計測する眼球運動取得部と、前記眼球運動取得部から前記ユーザの眼球運動情報を受信し、前記ユーザの眼球運動情報を用いて、前記ユーザの視覚疲労度を判定する疲労度判定部とを備えた3次元メガネとして実現してもよい。
[0036] 同様に、本発明は、3次元映像を表示する画像表示装置と、前記3次元映像を視聴するための3次元メガネとを備えた視覚疲労度測定システムであって、前記3次元メガネは、ユーザの眼球運動を計測する眼球運動取得部と、前記眼球運動取得部が計測した眼球運動情報を、前記3次元映像を表示する映像提示部を有する画像表示装置に送信する眼球運動情報送信部とを備え、前記画像表示装置は、視聴者の左目に提示する画像及び右目に提示する画像を蓄積している画像蓄積部と、前記画像蓄積部に蓄積された前記画像を表示する映像提示部と、前記3次元メガネから送信されてきた前記ユーザの眼球運動情報を用いて前記ユーザの視覚疲労度を判定する疲労度判定部と備えた視覚疲労度測定システムとして実現してもよい。
[0037] さらに、本発明は、左目に提示する画像及び右目に提示する画像を含む3次元映像を視聴するための3次元メガネであって、左目に提示する画像及び右目に提示する画像の切換に関する信号を同期受信する同期信号受信部と、前記同期信号に基づいて、右目のシャッタと左目のシャッタによる映像の遮蔽を切り替えるシャッタ制御部と、前記3次元メガネの眼球運動を計測する眼球運動取得部と、前記眼球運動取得部が計測した眼球運動情報を、前記3次元映像を表示する映像提示部を有する画像表示装置に送信する眼球運動情報送信部とを備えた3次元メガネとして実現してもよい。」

(甲3-ウ)「[0041] 図1は、3次元映像の視聴による視覚性の疲労と眼球運動の関係を検証するための実験を説明する図である。この実験では、ディスプレイ904に表示された実験用の3次元映像を視聴している被験者の眼球を、映像の視聴を妨げることなく、ハーフミラー901を用いて赤外線カメラ902にて被験者の眼球画像を取得し、その画像より、瞳孔中心を求めて瞳孔中心の水平方向位置を求めた。図1は実験に用いたハーフミラー901、赤外線カメラ902、立体視用液晶シャッタ903およびディスプレイ904の配置を模式的に示したものである。被験者の目から約4cm離れた位置で、被験者の目の上方に被験者の目を撮像する赤外線カメラ902を設置し、被験者の目の正面で、赤外線カメラ902の直下に、被験者の目の画像を写すためのハーフミラー901を設置した。立体視用液晶シャッタ903は被験者の目から約7cmはなれた位置に設置した。被験者の目からディスプレイ904までの距離は90cmとした。被験者は近視以外に眼科的疾患のない成人で、実験時には必要に応じて近視用のコンタクトレンズを使用した。実験用の3次元映像は、図示された仮想位置を被験者の目から90cmすなわちディスプレイ904上と被験者の目から30cmの位置とに設定した単純な幾何学図形(図示された「+」)を3から5秒ごとに交互に表示するもので、この奥行き差の変動(つまり、60cmの奥行き変動)は通常の3D映画やゲームの映像コンテンツに比べて非常に負荷の高い条件である。」

(甲3-エ)「[0075] 眼球運動取得部200は、プレーヤー100の左右の眼球の画像を取得するカメラ201と、カメラ201で取得した画像を蓄積する画像蓄積部202と、画像蓄積部202に蓄積された眼球の画像を処理して左右眼球の瞳孔中心位置を計算する画像処理部203とから成る。なお、この図13には一方の目のみを模式的に示したが、カメラ201は左右おのおのの目に1つずつ設置し、右目画像と左目画像とを記録するものとしてもよいし、単一のカメラで左右両眼の画像を記録し、おのおのの眼球画像を画像処理部203で分割して処理するものとしても良い。カメラ201は立体視用のシャッタめがねのフレームに設置されていてもよいし、表示画面のフレーム等に設置されていても良い。」

(甲3-オ)「[0100] なお、ここでは、ステップS1093において、同一軌道検索部193は直近の検査可能区間でプレーヤー100が注視していた視覚対象物の仮想位置の軌道と同一の軌道を持つ視覚対象物を検索したが、軌道の類似度を設定して、類似度一定以上の区間を検索するとしても良い。類似度は、例えば、2つの視覚対象物の軌道の始点から終点までについて、仮想位置の差すなわち、仮想位置間の距離の総和を求め、総和の値を軌道の時間長で割った値の逆数とし、軌道が一致する場合は無限大に設定される。類似とみなす類似度は、例えば、1/50(秒/mm)以上とする。この値は画面の大きさや視聴時の画面からの距離によって調節される。あるいは、類似度は、2つの視覚対象物の軌道の始点から終点までについて、仮想位置の差すなわち、仮想位置間の距離の総和を求め、どちらか一方、例えばゲーム開始から20分以内の軌道の移動距離で割った値の逆数、すなわち、移動距離に対する仮想位置の差の総和の比としても良い。例えば、移動距離が差の総和の10倍以上である場合を類似とみなす。この値は画面の大きさや視聴時の画面からの距離によって調節される。」

(甲3-カ)「[0123] また、本実施の形態1では、眼球運動取得部200は眼球の画像から眼球運動を取得するものとしたが、眼球の電気的特性により眼球周辺から眼球の動きを捉えることのできる眼電位を利用して眼球運動を取得するものとしても良い。例えば、図26に示すとおり、プレーヤー100の目の周辺に少なくとも4個の計測用の電極251、電極252、電極253、電極254と、基準電位とするための電極1個(電極259)を耳たぶまたは耳の後ろまたは額の皮膚に接触させる。4個の電極251?254は目の水平方向の動きを計測するための電極であり、両眼の目じりと目頭の皮膚に接触させる。図26では、さらに、両眼の垂直方向の動きを計測するための、眉毛の上の額に接触させる電極255と電極257、目の下に接触させる電極256と電極258とを備える。生体信号アンプ260は、各電極251?258で取得された電位を取得し増幅する。信号処理部261は、フィルタリング等により生体信号アンプ260で増幅された信号中のノイズを低減、除去し、計測電極である電極251から電極258の電位から基準電極である電極259の電位を減じることにより、計測電極の電位を標準化する。さらに、電極251での電位と電極252での電位との差分により右目水平方向の動きを示す電位を抽出し、電極253での電位と電極254での電位との差分により左目水平方向の動きを示す電位を抽出する。電極255での電位と電極256での電位との差分により右目垂直方向の動きを示す電位を抽出し、電極257での電位と電極258での電位との差分により左目垂直方向の動きを示す電位を抽出する。これらの電位を示すデータを、眼球運動データ210aとして、眼球運動蓄積部210に蓄積する。この場合、眼球運動比較部230では、ステップS1110において、眼球の位置情報の比較ではなく、各目の水平方向の眼電位同士、垂直方向の眼電位同士を比較する。図27は、水平方向の眼電位の一例を示したグラフである。視聴条件は図2と同様であり、仮想距離が被験者から90cmと30cmの視覚対象物を交互に注視した場合の眼電位を記録したものである。用いた3次元映像は、一般的映像コンテンツより視覚系に対する負荷が高い。そのため、疲労は一般的映像コンテンツより短い時間で眼電位に現れる。図27の(a)は被験者が視聴を開始した直後20秒から70秒の疲労のない状態での眼電位を示し、図27の(b)は視聴開始後400秒経過し、疲労を感じ始めたころの50秒間の眼電位を示す。図27の(c)は視聴開始後650秒が経過し、疲労により立体視が困難な状態での50秒間の眼電位を示している。」

(甲3-キ)「[0182] (実施の形態3)
本実施の形態では、3Dメガネ(3D眼鏡)18と画像を表示する装置を含む3次元映像ゲーム機2610とが双方向の通信を行う視覚疲労度測定装置3の構成について説明する。図46Aに、視覚疲労度測定装置3の構成の一例を示す。図46Aにおいては、実施の形態3で説明したブロックに関しては、同一の番号を付与している。3次元映像ゲーム機2610は、3次元映像を表示する画像表示装置の一例である。
[0183] 視覚疲労度測定装置3は、図1の視覚疲労度測定装置1の構成に加えて、眼球運動送信情報生成部2600と、眼球運動情報送信部2601と、眼球運動情報受信部2602と、同期信号送信部2603と、同期信号受信部2604と、シャッタ制御部2605とを備える。
[0184] 眼球運動送信情報生成部2600は、眼球運動取得部200で測定されたプレーヤー100の眼球運動のデータを所定の送信フォーマットに加工する。
[0185] 眼球運動情報受信部2602は、眼球運動送信情報生成部2600で生成されたプレーヤー100の眼球運動の情報を送信する。
[0186] 同期信号送信部2603は、映像提示部120で提示される画像に対して、左目用画像と右目用画像の切替制御の同期信号を送信する。
同期信号受信部2604は、3次元映像ゲーム機2610の同期信号送信部2603から送信された信号を受信する。
[0188] シャッタ制御部2605は、同期信号受信部2604で受信した信号に基づき、3Dメガネ18の右目のシャッタ及び左目のシャッタを制御する。右目のシャッタは、右目に画像が提示されないように右目への映像を遮蔽する。左目のシャッタは、左目に画像が提示されないように左目への映像を遮蔽する。」

(甲3-ク)「[0201] そこで、本実施の形態においては、例えば、3Dメガネ2(18a)からの眼球運動情報(通信13)から、疲労が判定された場合には、3Dメガネ2(18a)に対して、左目用の画像を提供しているときに、左目、右目のシャッタを開き、右目用の画像を提供しているときに、左目、右目のシャッタを閉じることで(通信14)、2D映像を提供するようにする。そのときの通信内容(通信12、通信14)を図50に示す。図50で示すように、3Dメガネ1(18b)に対しては、左右のシャッタを交互に開くように3次元映像ゲーム機が送信する一方、3Dメガネ2(18a)に対しては、左右のシャッタを同期させて開閉するような内容の送信を行う。一方、3Dメガネ1(18b)、3Dメガネ2(18a)ともに同じくらいの疲労と判定される場合には、警告表示等の出力を行う。これにより、複数のプレーやーがプレイしている場合でも、プレーヤーの疲労度に合わせて処理を行うことができる。」

(甲3-ケ)「[0212] また、上記実施の形態における視覚疲労度測定装置は、図10を用いて説明したように、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムで実現されてもよい。ここで、RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサがそのコンピュータプログラムにしたがって動作することにより、視覚疲労度測定装置はその機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。」

(2)上記(甲3-ア)ないし(甲3-ケ)の記載から、甲3には、「2つ以上の時間区間での眼球運動を比較した比較結果からユーザの視覚疲労度を判定する、3次元映像を視聴しているユーザの視覚疲労度を測定する視覚疲労度測定装置において、視聴者の左目に提示する画像及び右目に提示する画像を表示する映像提示部の、左目に提示する画像及び右目に提示する画像の切換に関する同期信号に基づいて、右目のシャッタと左目のシャッタによる映像の遮蔽を切り替える3次元メガネに眼球運動取得部を設ける」という技術事項(以下「甲3技術事項」という。)が記載されていると認められる。

4 甲4について
(1)遠隔視線追跡を使用した幼児における分解能視力の自動測定に関する文献である甲4には、以下の記載がある。
(甲4-ア)「PURPOSE. To validate a novel, automated test of infant resolution acuity based on remote eye-tracking.
METHODS. Infants aged 2 to 12 months were tested binocularly using a new adaptive computerized test of infant vision using eye tracking (ACTIVE), and Keeler infant acuity cards(KIAC). The ACTIVE test ran automatically, using remote eye-tracking to assess whether the infant fixated a black-and-white grating of variable spatial frequency. Test-retest reliability was assessed by performing each test twice. Accuracy was assessed by comparing acuity measures across tests and with established age-norms, and by comparing low-contrast acuity estimates in adults with data reported previously.
RESULTS. All infants completed the ACTIVE test at least once. Median test duration was 101 seconds. Measured visual acuity increased with age (P<0.001), and 90% of mean acuity estimates were within previously published 90% tolerance limits (based on acuity-card age norms). Acuity estimates were also correlated, within-subjects, with results from the KIAC (P=0.004). In terms of reliability, 86% of acuity estimates deviated by ≦1(当審注:原文の「≦」は「=」が「-」である。) octave, with no significant difference in test-retest reliability between the ACTIVE and KIAC procedures (P=0.461). In adults, acuity estimates from the ACTIVE test did not differ significantly from values reported by previous authors (P>0.183).
CONCLUSIONS. An adaptive computerized test of infant vision using eye-tracking provides a rapid, automated measure of resolution acuity in preverbal infants. The ACTIVE performed comparably to the current clinical gold standard (acuity cards) in terms of testability, reliability, and accuracy, and its principles can be extended to measure other visual functions.」(第8102頁上段)
(当審訳:目的。遠隔視線追跡に基づいた幼児の分解能視力についての新規な自動検査を検証する。
方法。視線追跡(ACTIVE)及びキーラー幼児視力カード(KIAC)を使用した新しいコンピュータ化された幼児視力検査を用いて、2?12か月の幼児に対して両眼で検査した。 ACTIVE検査は、空間周波数を変更可能な黒白の回折格子を幼児が固視したかを評価するために、遠隔視線追跡を使用して自動的に実行された。追試の信頼性は、各検査を2回実行することにより評価された。正確性は、検査全体での視力測定値と確立された年齢基準とを比較することによって、そして、以前報告された成人の低コントラスト視力の推定値データと比較することによって、評価された。
結果。全ての幼児は少なくとも1回のACTIVE検査を完了した。検査期間の中央値は101秒であった。測定された視力は年齢により増加し(P<0.001)、平均視力推測値の90%は、以前に公表された90%許容限界(視力カード年齢基準に基づく)内であった。視力推測値は、被験者内において、KIAによる結果とも互いに関連があった(P=0.004)。信頼性の点から、視力推測値の86%は、1オクターブ以内のずれであり、ACTIVE手順とKIAC手順との間に、検査・再検査の信頼性において顕著な差はなかった (P=0.461)。成人では、ACTIVE検査による視力推測値は、以前の著者らが報告した値と大きな差はなかった(P>0.183)。
結論。視線追跡を使用するコンピュータ適用型幼児の視力検査は、言語習得前の幼児の分解能視力の迅速な自動測定を実現した。ACTIVEは、検査可能性、信頼性及び正確性の点において、現在の臨床のゴールドスタンダード(視力カード)と同等に実行され、その原理は他の視覚機能の測定にも拡大可能である。)

(甲4-イ)「

FIGURE 1. ACTIVE apparatus and procedure. (A) The infant was seated on a parent’s lap, and viewed stimuli binocularly at a distance of 84 cm. An eye-tracker (Tobii Technology) was mounted below the LCD screen, and recorded the infant’s eye movements.」(第8104頁上部)
(当審訳:図1。ACTIVEの装置と手順。(A)幼児は親の膝の上に座り、84cm離れた刺激を両目で見た。視線追跡器(Tobii Technology)はLCDスクリーンの下方に設置され、幼児の眼の動きを記録した。)

(2)上記(甲4-ア)及び(甲4-イ)の記載から、甲4には、「空間周波数を変更可能な黒白の回折格子を幼児が固視したかを評価するために、84cm離れた刺激を両目で見た時の幼児の眼の動きを、LCDスクリーンの下方に設置された視線追跡器で記録し、幼児の分解能視力を自動検査する」という技術事項(以下「甲4技術事項」という。)が記載されていると認められる。

5 甲5について
(1)頭部ポーズと眼の画像を使用した視点検知のためのデータセットに関する文献である甲5には、以下の記載がある。
(甲5-ア)「Abstract This paper presents a new, publicly available dataset1, aimed to be used as a benchmark for Point of Gaze (PoG) detection algorithms. The dataset consists of two modalities that can be combined for PoG definition: (a) a set of videos recording the eye motion of human participants as they were looking at, or following, a set of predefined points of interest on a computer visual display unit (b) a sequence of 3D head poses synchronized with the video. The eye motion was recorded using a Mobile Eye-XG, head mounted, infrared monocular camera and the head position by using a set of Vicon motion capture cameras. The ground truth of the point of gaze and head location and direction in the three-dimensional space are provided together with the data. The ground truth regarding the point of gaze is known in advance since the participants are always looking at predefined targets on a monitor.」(「Abstract」の項)
(当審訳:要約 この論文は、視点(PoG)検知アルゴリズムのための基準として使用されることを目的とした、新しい公に利用可能なデータセットを提供する。データセットは、PoGの定義のために結合される2つのモダリティから構成される。(a)コンピュータ表示装置上の所定の関心点のセットを見ているとき、又は追いかけているときのヒト被験者の眼の動きを記録したビデオのセット、(b)ビデオと同期した一連の3次元の頭部ポーズ。眼の動きは、頭部に装着した赤外線単眼カメラであるMobile Eye-XGで記録され、頭部の位置は、Viconのモーションキャプチャカメラのセットを使用して記録された。3次元空間での視点並びに頭部の位置及び方向のグランドトゥルースは、データとともに提供される。被験者は常にモニタ上の所定のターゲットを見ているため、視点に関するグランドトゥルースは予め知られている。)

(2)上記(甲5-ア)の記載から、甲5には、「(a)コンピュータ表示装置上の所定の関心点のセットを見ているとき、又は追いかけているときのヒト被験者の眼の動きを記録したビデオのセットと、(b)ビデオと同期した一連の3次元の頭部ポーズから構成されるデータセットを用いて視点を検知する」という技術事項(以下「甲5技術事項」という。)が記載されていると認められる。

第5 当審の判断
1 本件発明1について
(1)本件発明1と甲1発明とを対比する。
ア 甲1発明の「被験者12の視力又は眼を検査、診断又は治療するための多機能検眼眼科システム10」は、本件発明1の「視力診断のためのシステム」に相当する。

イ 甲1発明の「眼102の瞳孔154の位置、動き及び形状を追跡」する「可動撮像アセンブリ246」は、本件発明1の「眼の一部分の運動を追跡するように構成された少なくとも1つの眼球運動追跡ユニット」に含まれる。

ウ 甲1発明の「被験者12の眼102に向けられ、眼102の網膜162(及びおそらく他のコンポーネント)と相互作用し、部分的に反射される光線」である「通常強度のパターン、写真又は/及びビデオ」は、本件発明1の「視覚刺激」に相当する。

エ 甲1発明の「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」は、それぞれ「通常強度のパターン、写真又は/及びビデオ」を「放出する」ものであるから、本件発明1の「スクリーン」に相当するといえる。

オ 上記ウ及びエを踏まえると、甲1発明の「被験者12の眼102に向けられ、眼102の網膜162(及びおそらく他のコンポーネント)と相互作用し、部分的に反射される光線」である「通常強度のパターン、写真又は/及びビデオを生成及び放出する」「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」は、本件発明1の「視覚刺激のための少なくとも1つのスクリーン」に含まれるといえる。

カ 甲1発明は、「マイクロディスプレイ(μディスプレイ)202bをオフにすることで右目102bの閉塞のエミュレーションを行い」、「マイクロディスプレイ(μディスプレイ)202bをオンにすることによる右目102bからの『閉塞の除去』」がされ、「マイクロディスプレイ(μディスプレイ)202aをオンにすることによる左目102aからの『閉塞の除去』」がされることから、「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」を別々にオン・オフすることで、左右の眼の「閉塞」及び「閉塞の除去」を独立して行うことができるものである。

キ 上記カを踏まえると、甲1発明の「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」は、本件発明1の「各々の眼の視野(FOV)を別々に制御可能に遮断するように構成されたシャッターユニット」が有する機能である、「各々の眼の視野(FOV)を別々に制御可能に遮断する」機能を備えているといえる。

ク 甲1発明の「頭部装着可能ユニット14」は、本件発明1の「視力検査ユニット」に相当する。

ケ 「頭部装着可能ユニット14は、中央制御処理ユニット16に動作可能に接続され」た甲1発明において、「頭部装着可能ユニット14」の制御及び「頭部装着可能ユニット14」で取得した信号の処理は、「中央制御処理ユニット16」が行っているものといえる。
すると、甲1発明の「中央制御処理ユニット16」は、「視力検査ユニット」を制御する装置である点において、本件発明1の「コントローラ」に相当する。

コ 甲1発明の「マイクロディスプレイ(μディスプレイ)202aをオンにする」は、本件発明1の「a.患者に対して、第1の視覚刺激を、前記少なくとも1つのスクリーン上の第1の位置に表示し」に相当する。

サ 甲1発明において、「斜位/斜視評価のためのカバーテスト」を実行する際、「右目102bの閉塞のエミュレーションを行」うために「マイクロディスプレイ(μディスプレイ)202bをオフにする」とき、「マイクロディスプレイ(μディスプレイ)202a」はオンのままであるから、甲1発明の「マイクロディスプレイ(μディスプレイ)202bをオフにする」と、本件発明1の「b.前記シャッターユニットに、患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ」とは、「b.患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ」で共通する。

シ 甲1発明は、「可動撮像アセンブリ246」で「眼102の瞳孔154の」「動き」「を追跡」するものであり、「両目が左に移動」したことを検知することができることから、「可動撮像アセンブリ246」で両目の「瞳孔154の」「動き」「を追跡」し、得られた信号を「中央制御処理ユニット16」で処理しているといえる。
すると、甲1発明の「中央制御処理ユニット16」は、本件発明1の「c.前記少なくとも1つの眼球運動追跡ユニットから、患者の第2の眼の運動を示す第1の信号を受け取り」に相当する構成を備えている。

ス 甲1発明において、「マイクロディスプレイ(μディスプレイ)202a」と「マイクロディスプレイ(μディスプレイ)202b」とは異なる位置に配置されているから、甲1発明の「マイクロディスプレイ(μディスプレイ)202bをオンにする」は、本件発明1の「d.患者に対して、第2の視覚刺激を、前記少なくとも1つのスクリーン上の前記第1の位置とは異なる、第2の位置に表示し」に相当する。

セ 甲1発明において、「左目102aが閉塞され」るとき、「マイクロディスプレイ(μディスプレイ)202b」はオンのままであるから、甲1発明の「左目102aが閉塞され」と、本件発明1の「e.前記シャッターユニット(230)に、患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ」とは、「e.患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ」で共通する。

ソ 上記シを踏まえると、甲1発明の「中央制御処理ユニット16」は、本件発明1の「f.前記少なくとも1つの眼球運動追跡ユニットから、患者の第1の眼の運動を示す第2の信号を受け取り」に相当する構成を備えている。

タ 本件特許に係る出願の願書に添付された明細書の段落【0012】に「視力診断(例えば、視力検査、斜視検出検査、3D視覚検査など)」と記載されていることを踏まえると、甲1発明の「被験者12」の「斜位/斜視評価のためのカバーテストを客観的かつ自動的に実行する」は、本件発明1の「患者の視力を診断する」に含まれる。
そして、上記シ及びソを踏まえると、甲1発明の「被験者12」の「斜位/斜視評価のためのカバーテストを客観的かつ自動的に実行する」は、本件発明1の「g.前記受け取った第1および第2の信号に基づいて患者の視力を診断する」に含まれるといえる。

チ 上記ケないしタの対比から、甲1発明の「中央制御処理ユニット16」と本件発明1の「コントローラ」とは、「コントローラであって、
a.患者に対して、第1の視覚刺激を、前記少なくとも1つのスクリーン上の第1の位置に表示し、
b.患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ、
c.前記少なくとも1つの眼球運動追跡ユニットから、患者の第2の眼の運動を示す第1の信号を受け取り、
d.患者に対して、第2の視覚刺激を、前記少なくとも1つのスクリーン上の前記第1の位置とは異なる、第2の位置に表示し、
e.患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ、
f.前記少なくとも1つの眼球運動追跡ユニットから、患者の第1の眼の運動を示す第2の信号を受け取り、
g.前記受け取った第1および第2の信号に基づいて患者の視力を診断する、
ように構成された、コントローラ」で共通する。

(2)そうすると、本件発明1と甲1発明との一致点及び相違点は、以下のとおりである。
ア 一致点
「 視力診断のためのシステムであって、
眼の一部分の運動を追跡するように構成された少なくとも1つの眼球運動追跡ユニットと、
視覚刺激のための少なくとも1つのスクリーンと、
各々の眼の視野を別々に制御可能に遮断する機能と、
を備える視力検査ユニットと、
コントローラであって、
a.患者に対して、第1の視覚刺激を、前記少なくとも1つのスクリーン上の第1の位置に表示し、
b.患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ、
c.前記少なくとも1つの眼球運動追跡ユニットから、患者の第2の眼の運動を示す第1の信号を受け取り、
d.患者に対して、第2の視覚刺激を、前記少なくとも1つのスクリーン上の前記第1の位置とは異なる、第2の位置に表示し、
e.患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ、
f.前記少なくとも1つの眼球運動追跡ユニットから、患者の第1の眼の運動を示す第2の信号を受け取り、
g.前記受け取った第1および第2の信号に基づいて患者の視力を診断する、
ように構成された、コントローラと、
を備えるシステム。」
の発明である点。

イ 相違点
(相違点1)
各々の眼の視野を別々に制御可能に遮断する機能を実行する手段について、本件発明1においては、「各々の眼の視野を別々に制御可能に遮断するように構成されたシャッターユニット」を備え、「コントローラ」が「前記シャッターユニットに、患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ」、かつ「前記シャッターユニットに、患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ」る「ように構成され」ているのに対し、甲1発明においては、「中央制御処理ユニット16」の制御により、「マイクロディスプレイ(μディスプレイ)202bをオフにすることで右目102bの閉塞のエミュレーションを行い」、「マイクロディスプレイ(μディスプレイ)202a」をオフにすることで「左目102aが閉塞され」るものであって、「シャッターユニット」に相当する構成を備えていない点。

(3)上記相違点1について検討する。
ア 甲2技術事項は、被験者の片方の眼の視覚を塞ぐために、オクルーダを眼鏡上に取り付けるか、ストラップを使用して被験者の頭部に固定することを開示する。
甲2技術事項の「オクルーダ」は、被験者の片眼の視野を塞ぐことができるが、本件発明1の「シャッターユニット」のように、「各々の眼の視野(FOV)を別々に制御可能に遮断するように構成された」ものではない。

イ 甲3技術事項は、視聴者の左目に提示する画像及び右目に提示する画像を表示する映像提示部の、左目に提示する画像及び右目に提示する画像の切換に関する同期信号に基づいて、右目のシャッタと左目のシャッタによる映像の遮蔽を切り替える3次元メガネを開示する。
甲3技術事項の「右目のシャッタと左目のシャッタによる映像の遮蔽を切り替える3次元メガネ」は、本件発明1の「各々の眼の視野(FOV)を別々に制御可能に遮断するように構成されたシャッターユニット」に相当する。
ここで、甲3技術事項の「3次元メガネ」は、「視聴者の左目に提示する画像及び右目に提示する画像を表示する映像提示部の、左目に提示する画像及び右目に提示する画像の切換に関する同期信号に基づいて、右目のシャッタと左目のシャッタによる映像の遮蔽を切り替える」ことから、映像提示部に交互に表示される左目に提示する画像及び右目に提示する画像を、それぞれ左目だけ及び右目だけで見られるようにして、3次元映像の視聴を可能とするためのものである。
しかしながら、甲1発明は、左目用のマイクロディスプレイ(μディスプレイ)202a及び右目用のマイクロディスプレイ(μディスプレイ)202bを別々にオン・オフすることにより片方の視野を塞ぐことができるものであるから、甲3技術事項の「3次元メガネ」で実行するシャッタ機能を備えている。
また、甲1発明において、甲3技術事項のような3次元映像の視聴を行う場合について検討すると、甲1発明は、構造的に左目用のマイクロディスプレイ(μディスプレイ)202aの映像を右目で見ることはできず、また、右目用のマイクロディスプレイ(μディスプレイ)202bの映像を左目で見ることはできないことから、それぞれのマイクロディスプレイにそれぞれの目用の映像を連続的に表示するだけで3次元映像の視聴が可能であり、甲3技術事項の「3次元メガネ」で実行するシャッタ動作の必要はない。
したがって、甲1発明に甲3技術事項の「3次元メガネ」を採用する動機はない。

ウ 甲4技術事項及び甲5技術事項は、いずれも本件発明1の「各々の眼の視野(FOV)を別々に制御可能に遮断するように構成されたシャッターユニット」を開示するものではない。

エ してみると、甲1ないし甲5に接した当業者といえども、甲1発明において、上記相違点1に係る本件発明1の発明特定事項を備えたものとすることは、容易に想到し得ることではない。

(4)以上のとおりであるから、本件発明1は、甲1発明及び甲2技術事項ないし甲5技術事項に基づいて当業者が容易に発明をすることができたものではない。

2 本件発明2ないし14及び19について
本件発明2ないし14及び19は、本件発明1の「シャッターユニット」を含み、更に限定を付加したものであるから、本件発明1と同じ理由により、甲1発明及び甲2技術事項ないし甲5技術事項に基づいて当業者が容易に発明をすることができたものではない。

3 本件発明15について
(1)本件発明15は、「視力診断のためのシステムを制御するコントローラ」に係る発明であって、本件発明1の「コントローラ」と同じ機能を有し、「視力診断のためのシステム」が備える「シャッターユニット」を制御する構成を含んでいる。

(2)上記1で検討したように、甲2技術事項ないし甲5技術事項を考慮しても、甲1発明を本件発明1の「シャッターユニット」を備えたものとすることは当業者が容易に想到し得ることではないから、「シャッターユニット」を制御する構成を含んでいる本件発明15は、甲1発明及び甲2技術事項ないし甲5技術事項に基づいて当業者が容易に発明をすることができたものではない。

4 本件発明16、17及び20について
本件発明16、17及び20は、本件発明15の「シャッターユニット」を制御する構成を含み、更に限定を付加したものであるから、本件発明1と同じ理由により、甲1発明及び甲2技術事項ないし甲5技術事項に基づいて当業者が容易に発明をすることができたものではない。

5 本件発明18について
(1)本件発明18と甲1発明とを対比する。
ア 甲1発明の「被験者12の視力又は眼を検査、診断又は治療するための多機能検眼眼科システム10」は、本件発明18の「視力診断のためのシステム」に相当する。

イ 甲1発明の「眼102の瞳孔154の位置、動き及び形状を追跡」する「可動撮像アセンブリ246」は、本件発明18の「眼の一部分の運動を追跡するように構成された少なくとも1つの眼球運動追跡ユニット」に含まれる。

ウ 甲1発明の「被験者12の眼102に向けられ、眼102の網膜162(及びおそらく他のコンポーネント)と相互作用し、部分的に反射される光線」である「通常強度のパターン、写真又は/及びビデオ」に含まれる「格子」は、本件発明18の「視覚刺激」に相当する。

エ 甲1発明の「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」は、それぞれ「通常強度のパターン、写真又は/及びビデオ」を「放出する」ものであるから、本件発明18の「スクリーン」に相当するといえる。

オ 上記ウ及びエを踏まえると、甲1発明の「被験者12の眼102に向けられ、眼102の網膜162(及びおそらく他のコンポーネント)と相互作用し、部分的に反射される光線」である「通常強度のパターン、写真又は/及びビデオを生成及び放出する」「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」は、本件発明18の「視覚刺激のための少なくとも1つのスクリーン」に含まれるといえる。

カ 甲1発明は、「マイクロディスプレイ(μディスプレイ)202bをオフにすることで右目102bの閉塞のエミュレーションを行い」、「マイクロディスプレイ(μディスプレイ)202bをオンにすることによる右目102bからの『閉塞の除去』」がされ、「マイクロディスプレイ(μディスプレイ)202aをオンにすることによる左目102aからの『閉塞の除去』」がされることから、「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」を別々にオン・オフすることで、左右の眼の「閉塞」及び「閉塞の除去」を独立して行うことができるものである。

キ 上記カを踏まえると、甲1発明の「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」は、本件発明18の「各々の眼の視野(FOV)を別々に制御可能に遮断するように構成されたシャッターユニット」が有する機能である、「各々の眼の視野(FOV)を別々に制御可能に遮断する」機能を備えているといえる。

ク 甲1発明の「頭部装着可能ユニット14」は、本件発明18の「視力検査ユニット」に相当する。

ケ 「頭部装着可能ユニット14は、中央制御処理ユニット16に動作可能に接続され」た甲1発明において、「頭部装着可能ユニット14」の制御及び「頭部装着可能ユニット14」で取得した信号の処理は、「中央制御処理ユニット16」が行っているものといえる。
すると、甲1発明の「中央制御処理ユニット16」は、「視力検査ユニット」を制御する装置である点において、本件発明18の「コントローラ」に相当する。

コ 甲1発明では、「『灰色カード上の格子』(GGC)を使用して客観的な視力を評価する」際、両目同時に行うのか、左右の目を別々に行うのかについては特定されていない。
そこで検討するに、甲1発明は、「マイクロディスプレイ(μディスプレイ)202a」及び「マイクロディスプレイ(μディスプレイ)202b」のオン・オフを制御して、左右の目の「閉塞」を個別に行うことができるものである。
そして、視力検査において、右目の検査を行う際に左目を遮蔽し、左目の検査を行う際に右目を遮蔽することは慣用されている。
してみると、甲1発明の「中央制御処理ユニット16」は、「『灰色カード上の格子』(GGC)を使用して客観的な視力を評価する」際、「マイクロディスプレイ(μディスプレイ)202bをオフにすることで右目102bの閉塞のエミュレーションを行い」、「可動撮像アセンブリ246」で「被験者12」の左目の動きを測定して左目の視力を評価し、「マイクロディスプレイ(μディスプレイ)202a」をオフすることで「左目102aが閉塞され」、「可動撮像アセンブリ246」で「被験者12」の右目の動きを測定して右目の視力を評価することができるように構成されているといえる。
ここで、甲1発明の「視力を評価する」は、本件発明18の「視力を診断する」に相当する。

サ 甲1発明の「20/200の視力に対応する低空間周波数の格子が最初に生成され」は、本件発明18の「a.患者に対して、第1のコントラスト感度レベルを有する第1の視覚刺激を、前記少なくとも1つのスクリーン上に表示し」に相当する。

シ 甲1発明の「被験者12が格子を追跡する限り、格子の空間周波数は増加し」は、本件発明18の「d.患者に対して、前記第1のコントラスト感度レベルとは異なる第2のコントラスト感度レベルを有する第2の視覚刺激を、前記少なくとも1つのスクリーン上に表示し」に相当する。

ス 上記1(1)カないしチの対比を踏まえると、上記ケないしシの対比及び検討から、甲1発明の「中央制御処理ユニット16」と本件発明18の「コントローラ」とは、「コントローラであって、
a.患者に対して、第1のコントラスト感度レベルを有する第1の視覚刺激を、前記少なくとも1つのスクリーン上に表示し、
b.患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ、
c.前記少なくとも1つの眼球運動追跡ユニットから、患者の第2の眼の運動を示す第1の信号を受け取り、
d.患者に対して、前記第1のコントラスト感度レベルとは異なる第2のコントラスト感度レベルを有する第2の視覚刺激を、前記少なくとも1つのスクリーン上に表示し、
e.患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ、
f.前記少なくとも1つの眼球運動追跡ユニットから、患者の第1の眼の運動を示す第2の信号を受け取り、
g.前記受け取った第1および第2の信号に基づいて患者の視力を診断する、
ように構成された、コントローラ」で共通する。

(2)そうすると、本件発明18と甲1発明との一致点及び相違点は、以下のとおりである。
ア 一致点
「 視力診断のためのシステムであって、
眼の一部分の運動を追跡するように構成された少なくとも1つの眼球運動追跡ユニットと、
視覚刺激のための少なくとも1つのスクリーンと、
各々の眼の視野を別々に制御可能に遮断する機能と、
を備える視力検査ユニットと、
コントローラであって、
a.患者に対して、第1のコントラスト感度レベルを有する第1の視覚刺激を、前記少なくとも1つのスクリーン上に表示し、
b.患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ、
c.前記少なくとも1つの眼球運動追跡ユニットから、患者の第2の眼の運動を示す第1の信号を受け取り、
d.患者に対して、前記第1のコントラスト感度レベルとは異なる第2のコントラスト感度レベルを有する第2の視覚刺激を、前記少なくとも1つのスクリーン上に表示し、
e.患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ、
f.前記少なくとも1つの眼球運動追跡ユニットから、患者の第1の眼の運動を示す第2の信号を受け取り、
g.前記受け取った第1および第2の信号に基づいて患者の視力を診断する、
ように構成された、コントローラと、
を備えるシステム。」
の発明である点。

イ 相違点
(相違点2)
各々の眼の視野を別々に制御可能に遮断する機能を実行する手段について、本件発明18においては、「各々の眼の視野を別々に制御可能に遮断するように構成されたシャッターユニット」を備え、「コントローラ」が「前記シャッターユニットに、患者の第2の眼のFOVを遮断させずに第1の眼のFOVを遮断させ」、かつ「前記シャッターユニットに、患者の第1の眼のFOVを遮断させずに第2の眼のFOVを遮断させ」る「ように構成され」ているのに対し、甲1発明においては、「中央制御処理ユニット16」の制御により、「マイクロディスプレイ(μディスプレイ)202bをオフにすることで右目102bの閉塞のエミュレーションを行い」、「マイクロディスプレイ(μディスプレイ)202a」をオフにすることで「左目102aが閉塞され」るものであって、「シャッターユニット」に相当する構成を備えていない点。

(3)上記相違点2について検討する。
相違点2は、上記1(3)で検討した上記相違点1と同じであるから、上記相違点1と同じ理由により、甲1ないし甲5に接した当業者といえども、甲1発明において、上記相違点2に係る本件発明18の発明特定事項を備えたものとすることは、容易に想到し得ることではない。

(4)以上のとおりであるから、本件発明18は、甲1発明及び甲2技術事項ないし甲5技術事項に基づいて当業者が容易に発明をすることができたものではない。

6 本件発明21について
本件発明21は、本件発明18の「シャッターユニット」を含み、更に限定を付加したものであるから、本件発明18と同じ理由により、甲1発明及び甲2技術事項ないし甲5技術事項に基づいて当業者が容易に発明をすることができたものではない。

第6 むすび
以上のとおりであるから、特許異議の申立ての理由及び証拠によっては、本件請求項1ないし21に係る特許を取り消すことはできない。
また、他に本件請求項1ないし21に係る特許を取り消すべき理由を発見しない。
よって、結論のとおり決定する。
 
異議決定日 2021-06-28 
出願番号 特願2017-539335(P2017-539335)
審決分類 P 1 651・ 121- Y (A61B)
最終処分 維持  
前審関与審査官 ▲高▼原 悠佑  
特許庁審判長 森 竜介
特許庁審判官 渡戸 正義
蔵田 真彦
登録日 2020-10-06 
登録番号 特許第6774136号(P6774136)
権利者 グリーン シー.テック リミテッド
発明の名称 自動視力診断の方法およびシステム  
代理人 岩池 満  
代理人 北村 周彦  
代理人 芝 哲央  
代理人 林 一好  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ